|
|
|
|
Mal vorab ne abklärung ob das später auch so läuft wie ich mir das vorstelle:
Ist-Zustand Radeon 6850
Hauptmonitor Dvi <-> Dvi GraKa
Nebenmonitor VGA <-- Adapter-> DVI Graka (ich glaube 2x DVI ging nicht)
HDMI Kabel steckt einseitig drin und wird bei bedarf in TV angeschlossen, das schaltet sich dann automatisch um wie ich es brauch.
Geplant ist nun eine GTX 980, die hat aber nur noch einen DVI Port.
HDMI soll wie sonst auch bei bedarf für TV herhalten.
Nun die Frage ob ich Hauptmonitor mit Adapter DVI auf einen Displayport stecke und den Nebenmonitor von DVI auf DVI.
Sind da Konflikte vorprogrammiert oder werd ichs erst sehen wenn es so weit ist?
|
|
|
|
|
|
|
funktioniert
|
|
|
|
|
|
|
hängt ganz stark von den controller chips auf der grafikkarte, dem adapter und im monitor ab ob das sauber läuft.
ich hab hier nen eizo monitor stehen der da nicht mitspielt.
drei verschiedene adapter versucht, mit unterschiedlichen chips, zwei grafikkarten und andere kabel. jeweils kein erfolg. mit nem nativen dvi-d anschluss gehts sofort.
irritierend an der geschichte, stecke ich das teil mit irgendeinem der adapter an den laptop mini-dp port, dann läufts sofort.
dafür macht hier ein nativer DP HP monitor des öfteren probleme.
im grunde sollte das aber, wie red schon sagte, eigentlich funktionieren.
tipp, sollte das mit dem DP nicht funktionieren, nimm den HDMI für den monitor und versuch das TV via nem DP->HDMI adapter zu nutzen.
das funktioniert aus meiner erfahrung raus oft unproblematischer, weil die HDMI chips in den TVs oft einfach robuster / besser sind, weil die mit allem möglichen chip müll umgehen können müssen / sollen.
|
|
|
|
|
|
|
Dann transportiert DisplayPort auch den Ton?
|
|
|
|
|
|
|
prinzipiell ja.
die DP spezifikation beschreibt einen verbindungsstandard der nahezu alles, was paket orientiert übertragen werden kann, übertragen kann.
das ist z.b. der grund, warum man darüber video, audio, ethernet, usb, firewire, thunderbolt und sogar PCIe übertragen kann.
die frage ist halt, und das kann ich dir so spontan nicht beantworten, ob die hardwarehersteller das auch implementiert haben.
|
|
|
|
|
|
|
Meines Wissens nach ist DP und HDMI elektrisch und vom Protokoll her gleich, nur die Steckerform ist anders. Noch dazu meine ich, dass DP/HDMI im Grunde DVI + Digitaler-Ton ist. Insofern sollte es da eigentlich jede Menge Adapter geben, ohne viel Logik drin.
Schizophrenia is my excuse for statements made in contrast.
|
|
|
|
|
|
|
| Zitat von NetHunter80
Meines Wissens nach ist DP und HDMI elektrisch und vom Protokoll her gleich
| |
nope.
HDMI und DVI ist TMDS und DP ist LVDS.
HDMI und DVI nutzen 5V, DP 3.3V.
HDMI ist zu DVI kompatibel.
DP kann HDMI/DVI TMDS anbieten, wenn es sich um einen DisplayPort++ port handelt.
der muss dann allerdings auch von den chips vollständig unterstützt werden.
damit verliert man dann allerdings einige der DP funktionen wie z.b. MST (mehrere displays an einem port) und die unterstützung für auflösungen grösser 1920x1200@60Hz an der dann vorhandenen HDMI/DVI seite, da hier nur single-link DVI/HDMI vorhanden ist.
dazu kommt noch, dass du da immer nen satz von chips zwischen der grafikkarte und dem display hast, was zu unlustigen problemen führen kann.
|
|
|
|
|
|
|
Gerade nachgeschaut und gesehn das mein neuerster monitor sogar DP anschluss hat \o/ Dann müsst ich zumindest nix mit adapter machen.
|
|
|
|
|
|
|
| Zitat von Traxer
| Zitat von NetHunter80
Meines Wissens nach ist DP und HDMI elektrisch und vom Protokoll her gleich
| |
nope.
HDMI und DVI ist TMDS und DP ist LVDS.
HDMI und DVI nutzen 5V, DP 3.3V.
HDMI ist zu DVI kompatibel.
DP kann HDMI/DVI TMDS anbieten, wenn es sich um einen DisplayPort++ port handelt.
der muss dann allerdings auch von den chips vollständig unterstützt werden.
damit verliert man dann allerdings einige der DP funktionen wie z.b. MST (mehrere displays an einem port) und die unterstützung für auflösungen grösser 1920x1200@60Hz an der dann vorhandenen HDMI/DVI seite, da hier nur single-link DVI/HDMI vorhanden ist.
dazu kommt noch, dass du da immer nen satz von chips zwischen der grafikkarte und dem display hast, was zu unlustigen problemen führen kann.
| |
Dann habe ich wohl im Hirn HDMI und DP vertauscht und behaupte das Gegenteil.
Schizophrenia is my excuse for statements made in contrast.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von NetHunter80 am 16.09.2015 3:07]
|
|
|
|
|
|
narf warum liegt nur ein 6zu8 pin strom adapter bei
jetzt darf ich erstmal einen 2. besorgen...
|
|
|
|
|
|
|
weil die kartenhersteller davon ausgehen - zu recht - das netzteile, die keinen 8 pin anschluss haben in aller regel nicht genug leistung über das entsprechende rail zur verfügung stellen können.
soll heissen, hat dein netzteil keine 8 pin anschlüsse, dann ist es nicht dafür ausgelegt entsprechende leistungen über das kabel abzugeben.
das kann funktionieren, es kann aber auch dazu führen, dass dir das netzteil den blauen rauch freigibt und alles in deinem system brutzelt, wenn es keine gute absicherung gegen überspannung auf den internen rails hat. (letzteres schon gehabt)
schau dir bitte genau an, wieviel ampere das netzteil über die rails auf dauer (!) abgeben kann, bevor du da anfängst sowas zu basteln.
|
|
|
|
|
|
|
Netzteil ist das
| NETFOR500_APN Silent Netzteil 500 Watt Fortron, 12cm Lüfter, 85+ [ Modell: FSP500-60 APN ] [ 80 Plus Bronze
Zertifizierung ] [ 12 cm Silent Lüfter ] [ Geräuschniveau < 28 dB(A) Volllast (temperaturgeregelt) ] [
Stromversorgung: 230 Volt / 60/50 Hz ] [ Aktives PFC ] [ Überspannungsschutz (bis 1800 VAC für 1 sec.)
] [ MTTF: 100.000 Stunden bei 25 °C ] [ max. Ausgangs-Eigenschaft: +3,3V/ 24A, +5V/ 24A, +12V1/ 18A,
+12V2/18A, -12V/0,5 A, +5VSB/ 2,5 A ] [ 100 % Funktionsgetestet ( Chroma ) ] []
| |
Auf der nvidia seite stand für die gtx 980 auch 500W mind. und 2x6pin, die MSI karte mit dem chip jetzt hat auf einmal 2x8pin
|
|
|
|
|
|
|
Eine Radeon R9 280XRadeon R9 280X oder eine nVidia GTX960oc?
e: oder was ganz anders für ~200¤
Aus der R9 werd ich nicht schlau. Die hat durch die Bank bessere Werte, aber es gibt R9 280x Modelle von 180¤ bis 300+¤ und sehen bis auf bischen Taktfrequenz total baugleich aus. Was übersehe ich da?
Die Liste bei gh.de
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Fersoltil am 23.09.2015 2:43]
|
|
|
|
|
|
380 das ist wenigstens ein neuer chip demnächst (TM) soll auch eine 380x kommen.
|
|
|
|
|
|
|
haha, geil. und 20¤ weniger als die GTX. Das hab ich davon mit Fanbrille da ran zu gehen.
|
|
|
|
|
|
|
Hi
Wollte mir eine Grafikkarte bestellen ( SAPPHIRE NITRO R9 390 8GB )
jetzt sagt der shop das die nicht mehr lieferbar ist.
Ich bräuchte jetzt eine vergleichbare (Preis/Leistung) aber weiss nicht so recht welche gut wäre.
|
|
|
|
|
|
|
ich bin mit den xfx black edition karten bisher recht zufrieden gewesen.
|
|
|
|
|
|
|
|
|
|
|
Mit dem abwandern eines weiteren "Key" AMD Mitarbeiters, diesmal zu Nvidia, glaubt Nvidia sich alles erlauben zu können.
wie z.B. den Treiberbezug einzuschränken bzw. nur gegen Registrierung/Rausgabe von Daten.
Gut, ne Wegwerfmail ist schnell gemacht, trotzdem sollte man nicht zu solchen Maßnahmen gezwungen werden. das gehört sich nicht und sollte unterbunden oder boykotiert werden. Und das sage Ich ohne murren und knurren als nvidia fanboi.
So ein Scheiss nicht mit mir.
|
|
|
|
|
|
|
Hatte ich auch gesehen.
Quartalsmäßig wird man weiterhin aktuelle Treiber bekommen, aber die für neue Speiel optimierten kriegt man nur noch über GF Experience.
|
|
|
|
|
|
|
ist auch besser so.
damit sterben diese treibertricks vielleicht dann zur erleichterung der entwicklungsarbeit endlich mal aus.
es ist sehr spassig, wenn man nach einem rendering bug sucht um dann nach mehreren tagen festzustellen, dass man selber dafür gar nichts kann, da der tolle treiber den produziert.
mal ganz abgesehen davon würde nvidia ein längerer releasezyklus auch gut tun, denn die qualität der letzten treiber war...erm... unter aller sau, was regressions und neue bugs anging.
der andere punkt, warum ich es generell befürworten würde, wenn die IHVs keine treiber "optimierungen" mehr produzieren würden ist, dass die benchmarks dann tatsächlich mal die hardware messen würden und nicht nur wie gut ein treiber team tricksen kann.
das ist bei sowohl AMD, als auch Nvidia bekannt das sie das beide machen. letztere machen es aber sehr viel häufiger und extremer, vermutlich weil sie ansonsten nicht mehr vor der konkurrenz wären.
man hat es ja in ansätzen schon gesehen, dass dem so ist.
ganz ehrlich gesagt, ich finde es ein wenig peinlich was nvidia da die letzten jahre so abzieht. sie hätten es eigentlich nicht notwendig, selbst wenn sie nicht die schnellsten chips hätten, würden sich die karten nicht wirklich schlechter verkaufen und bei dem vorsprung den die nach wie vor am markt haben, würde das auch noch eine ganze zeit dauern bis denen das zu einem problem wird. in der zeit könnte man vermutlich zwei bis drei neue chip architekturen entwickeln.
/e
übrigens so ganz neu ist das einschränken bei nvidia nicht, die entwickler tools die über jahre hinweg so zu bekommen waren sind seit gut 2 jahren hinter nem zaun versteckt, hinter den man nur nach akkreditierung gelassen wird und dann steht man vor dem nächsten.
|
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von Traxer am 17.10.2015 19:54]
|
|
|
|
|
|
gesucht:
grafikkarte, die es leistungsmässig mit einer in die jahre gekommenen gtx 560 ti aufnehmen kann, dabei aber wenn möglich passiv gekühlt ist.
ziel ist nicht, die performance zu verbessern, ich brauch nur was mit derselben leistung aber ohne kaputten lüfter zumindest bis ich die ganze maschine welchsle (grob geschätzt dann, wenn star citizen betatauglich wird, also in 5-6 jahren)
|
|
|
|
|
|
|
ich will meinen monitor upgraden, dafür brauchts dann aber auch ne neue grafikkarte.
jetzt steh ich vor der qual der wahl:
entweder r390 oder gtx970
und entweder Dell P2415Q (4k) oder U2515H (1440p).
also ich meine wenn ich den 4k monitor nehme sollte es die r390 sein wegen den 8gb vram, aber leider ist der 4k auch ein wenig kleiner (60cm zu 63cm diagonale) und ich hab keinen optischen vergleich ob mir die 4k die 100euro extra wert ist.
irgendwelche nützlichen erfahrungswerte dazu?
|
|
|
|
|
|
|
lel 4k, du willst eine Fury. Also wenn die mal 8Gb hat, nächstes Jahr. Wobei da 4GB auch reichen sollten, wenn man keine Mods mit >9000 Texturen installiert.
|
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von Bregor am 02.11.2015 20:10]
|
|
|
|
|
|
spiele sind csgo und diablo 3, da brauchts kein pixelmonsterrechner.
geht mir bei den 8gb auch darum, dass ich nicht wie akutell auf ein hardwarelimit laufen will.
meine 6950 mit 1gb kann nämlich nichtmal die battlefront beta starten, das soll mir mit der neuen graka nicht passieren.
also in 4-5jahren.
maximum in 4k wird dann eh nicht drin sein.
|
|
|
|
|
|
|
|
|
|
|
Denke beim Hardwarekauf nie an die Zukunft.
- Josef Stalin
|
|
|
|
|
|
|
Bei 4k brauchst Düne graka die das auch flüssig auf den Bildschirm zaubert und da sind die momentanen schon nicht soooo gut.
|
|
|
|
|
|
|
man sollte schon die richtigen seiten mit leichten technischen fehlern verlinken: http://www.tweaktown.com/tweakipedia/90/much-vram-need-1080p-1440p-4k-aa-enabled/index.html
die direkt am anfang aufgeführten pixel werte stimmen nicht so ganz mit dem, worüber im artikel geredet wird.
sobald du AA aktivierst renderst du naiv gesehen "vertical pixel count * horizontal pixel count * AA subpixel count".
das ist naiv gesehen korrekter, aber verschweigt nach wie vor, dass da eine gewaltige menge mehr durch die pixelshader, blendstages und die ROPs wandert alleine um einen nicht AA frame zu rendern. sobald du da irgendwas simples wie alpha blending drin hast fliegt da mehr durch die blend stages.
davon abgesehen hat die pure anzahl von pixeln die auf dem display dargestellt werden können, absolut nichts mit dem zu tun, was du an VRAM benötigst. da liegen gut 99% mehr an daten drin, die nur indirekt was mit dem frontbuffer zu tun haben (das wäre der der dem dargestellten bild entspricht).
direktes frontbuffer rendern macht man seit ca. anno 1995 nicht mehr, weil du in zu vielen fällen dem renderer direkt beim pixel ein und ausschalten zusehen konntest.
das was in dem artikel ebenfalls nicht berücksichtigt wird ist, dass das OS und andere anwendungen dort ebenfalls daten im VRAM liegen haben.
hier störe ich mich alleine schon daran, dass nicht klar aus dem artikel hervorgeht, womit gemessen wurde, auf was für einem system (die hardware und das OS sind gelistet, sonst nichts), was noch mit auf war, etc. das sind alles sachen, die den VRAM verbrauch beinflussen können und in der praxis auch tun.
mal ganz zu schweigen von der frage, was genau wurde überhaupt gemessen? war es der vom OS gemeldete VRAM verbrauch total, der der anwendung oder der vom treiber gemeldete?
werte die vom OS stammen sind immer ein wenig, wenig nützlich für diese art von messung, da diese daten "alt" sind und häufig geglättet, da diese häufig als 32-bit unsigned integer von der API in KB zurückgegeben werden.
sollte es sich sogar um werte handeln, welche pro applikation ermittelt sind, dann ist da noch weit mehr problempotential vorhanden, da diese werte immer nicht der realität entsprechen, da hier das OS etwas abschätzt auf basis der durch den treiber / die API geflossenen daten. die liegen aber teilweise in komprimierter form im VRAM oder halt auch gar nicht, wenn ein früher check sagt, dass diese nicht benötigt werden. (das macht man um PCIe bandbreite zu sparen)
was diese werte ebenfalls nicht aussagen ist, dass du den VRAM nicht zu 100% nutzen kannst, da nahezu alle payload daten (die reinen nutzdaten) entsprechende meta daten und paddings mit sich bringen, damit auf sie optimal zugegriffen werden können.
im falle von so einigen spielen, die für den test genutzt wurden, wird ebenfalls nicht berücksichtigt, dass hier compute shader verwendet werden und diese ebenfalls auf der GPU laufen und den VRAM verwenden. das wird dir von z.b. den Direct3D APIs aber nicht als VRAM verbrauch korrekt gemeldet.
das waren jetzt nur grundlegende sachen, die mir aufgefallen sind und warum ich mit dem "test" mal wieder nichts anfangen kann.
im übrigen, es wird in dem "test" explizit von average (durchschnitt) werten geredet, dass ist sicherlich ein interessanter wert, aber der peak wert wäre hier sehr sehr viel relevanter und wichtiger, da deine framerate direkt für mehrere frames abraucht, wenn du auch nur ein einzelnes byte über die mögliche menge an nutzbarem VRAM kommst. in dem fall muss dann nämlich etwas aus dem VRAM geschmissen werden und der ganze kram über den PCIe bus geswappt werden.
das verhält sich recht gleich zu dem swapping auf eine festplatte und ist ähnlich lahm.
kurzer grössenvergleich für optimal ablaufende swaps:
GPU<->VRAM bandbreite (GDDR5 512-bit) ca. 350 GB/s
GPU<->RAM (DDR3 1600, via PCIe 3 x16) ca. 20 GB/s (speicher kann ca. 25 GB/s, der PCIe 3 x16 bus ca. 32 GB/s)
CPU<->RAM (DDR3 1600) ca. 25 GB/s
CPU<->RAM<->SATA SSD (SATA 3 6Gbit/s) ca. 650 MB/s
sobald du über den nutzbaren VRAM hinausläufst, fällst du von dem bekanntesten aller performance cliffs.
der nutzbare VRAM ist wie schon erwähnt nicht die 1,2,3,3.5,4,6,8 oder 12 GB VRAM, sondern ein teil davon.
effektiv nutzbar auf z.b. einer 4 GB nvidia karte sind in etwa 3.8-9 GB. der rest geht für paddings und meta daten drauf. bei AMD und intel ist das nicht wesentlich anders, aber es gibt leichte unterschiede, weil jeder chips ein anderes padding haben will und andere meta daten.
der test liefert dir also nur eine aussage zu dem teil, den du erlebst so lange das spiel bzw. die anwendung nicht in eine situation kommt in der es / sie spontan mehr machen muss als üblich. in GTA V oder BF wären das z.b. grosse spielermengen auf einem haufen oder grosse explosionen mit vielen partikeleffekten.
| Zitat von Bregor
4K braucht momentan nur selten mehr als 4GB.
| |
das liegt an zwei faktoren, 1) der test ist murks, 2) es gibt bisher keine spiele die darauf ausgelegt sind, was texturen und co angeht. das wird alles mit den gleichen daten gefüttert die für 1080p ausgelegt sind. aus diesem grund sehen 4K spiele bisher auch nicht so sonderlich beeindruckend aus.
kommen da die ersten mit nativ für 4K erstellten texturen und co raus, dann sehen die spiele anders aus, der VRAM verbrauch wird bei aktuellen streaming methoden die 8 GB marke weit hinter sich lassen und die install grösse wird die 100 GB marke überschreiten.
eine 4K oder 8K option in einem video settings menü zu haben sagt nicht darüber aus, ob das spiel das auch tatsächlich mit assets hinerlegen kann.
ich kann dir auch gerne eine Q3 version geben die 8K rendert. ist kein problem, die läuft dann aber vermutlich ohne weiteres auf ner 7790 (2GB) bei 60 FPS.
| Zitat von Bregor
Aber ist ja auch egal, wichtig ist das der Chip das mit macht und die FPS nicht einbrechen. Da ist ne Fury oder 9800 TI schon nötig.
| |
die rechenleistung aller momentan verfügbaren chips ist für 4K 60fps nicht ausreichend, wenn man nicht die details auf mittel bis niedrig stellen will.
das kann bei vielen spielen momentan funktionieren, weil, wie schon gesagt, keines davon mit richtigen 4K assets daher kommt. garantieren wird und kann dir das aber niemand.
wenn du wirklich sauberes 4K 60fps haben willst, dann benötigst du dafür ein multi GPU setup. hier bekommt man dann aber sehr schnell ganz andere probleme als die der rechenleistung oder des speicherverbrauchs. die synchronisation zwischen den beiden karten ist nicht immer so ganz unproblematisch bei den aktuell verwendeten renderern.
ein einzel karten setup ist einem MGPU setup immer (aktueller stand der technik) vorzuziehen!
basierend auf den aktuellen chips mit aktuellen spielen und engines ist der hauptgrund, warum dir die FPS gelegentlich bei 4K wegbrechen der VRAM verbrauch. wie schon gesagt, wenn die karte teile ihres resident sets aus dem VRAM kegeln muss und das dann wieder über den PCIe bus holen muss, dann springst du gerade von einem sehr hohen performance cliff und versuchst dabei gut auszusehen.
das passiert in der geschichte der grafikkarten und spieleengines nicht zum ersten mal, dass es dieses cliff gibt und das viele es unerwartet herunterstürzen.
das ist halt ein effekt der auftritt, wenn man vorhandene sachen für sachen missbraucht für die sie nicht ausgelegt sind / waren.
--
um kurz auf die spiele einzugehen die von da_gig angesprochen wurden, die beiden sollten soweit ich das beurteilen kann ohne weiteres auf einer aktuellen 390X in 4K spielbar sein.
mit wie viel FPS kann ich nicht verlässlich sagen. ich würde aber auf basis der engines bei beiden von um die 60 FPS ausgehen, sofern die sauber skalieren.
wer aktuell sauberes 4K gaming haben will, der muss tief tief in die tasche greifen. da ist in aller regel auch bei der GPU nicht schluss, da viele aktuelle engines da auch eine etwas grössere CPU benötigen und es auch gerne sehen, wenn die assets dann von einer SSD kommen.
--
nur um kurz noch was zu der einleitung aus dem verlinkten test zu sagen. die einzige konsole die im durchschnitt nach wie vor sub 1080p rendert ist die XBone, weil die GPU und vor allem der speicher zu schmalbrüstig ist.
bei der PS4 habe ich mit ausnahme des aktuellen AssCred lange kein sub 1080p spiel mehr gesehen und auch schon länger keines mehr, was nicht zumindest versucht 60fps zu sein.
|
|
|
|
|
|
|
OK
|
|
|
|
|
|
Thema: Der Grafikkarten-Thread ( Jahr 2010 Edition mit Evergreen und Fermi ) |