|
|
|
|
Es ist Winter, ich bitte dich. Jetzt +50, im Sommer dann undervolten.
|
|
|
|
|
|
|
Wann geht denn die "Abnutzung" los wenn die die ganze Zeit 90A zieht über den Chip.
|
|
|
|
|
|
|
Kommt auf die Spannung an
e: Ernsthaft, 90A finde ich nicht besonders viel, die meisten aktuellen Chips laufen ja um 1,2V, da sind 160A durchaus auch mal normal auf dem VRM.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von hödyr am 29.10.2018 22:13]
|
|
|
|
|
|
Fffft.
Go big or go home.
|
|
|
|
|
|
|
Achso, die fahr ich ja runter, 0.95 laut HWInfo und 0.98 im OverdriveNTool.
¤: OK, doch net ganz soviel. Sobald man die Spannung etwas senkt, zieht er den Takt mit, also musste den Takt manuell wieder etwas erhöhen. Aber wenn man P6 und P7 auf einem Level hält um P6 ordentlich auszuloten, setzt er einfach die Spannung auf 1000mv und lässt sich auch net ändern. :/
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Bregor am 29.10.2018 23:14]
|
|
|
|
|
|
Irgendein Lüfter hat ne sehr nervige Hysterese (bzw. keine) und dreht ständig hörbar hoch und runter, aber anhand der Graphen von HWInfo kann ich nix erkennen. :/
|
|
|
|
|
|
|
Strohhalm (Autocorrect: Prothalmia)
|
|
|
|
|
|
|
Ja?
Desweiteren hab ich wohl net soviel Glück mit der Karte was die Clocks angeht. Aber ich schaffs jetzt sie bei ca. 170W auf 1500Mhz zu halten, auch wenn die Lüfter dabei recht laut sind bei 1300u/min. Mal gucken wie das entwickelt.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Bregor am 30.10.2018 0:26]
|
|
|
|
|
|
|
|
|
|
Wie viel Strom Verbraucht sie dabei?
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
du hast vergessen:
Hier kaufen Sie JETZT! Die aktuell schnellste 2080 ti GPU für unglaublich günstige 1300 Euro um in unglaublich hoher Auflösung von 1080p mit unglaublichen 68 FPS (im durchschnitt) spielen zu können um dabei Effekte sehen zu können, wie sie schon vor mehreren Jahren in gleicher Qualität mit konventionellem Rasterization möglich waren. Ein konkurrenzloses Schnäppchen, welches Sie bei keinem anderen Anbieter finden werden.
---
Ist also exakt dort gelandet, wie es von zig leuten vorrausgesagt wurde. kann man also in der realität einfach mal als gimmick abstempeln, was in ca. 5-10 jahren vielleicht sinnvoll werden könnte, wäre da nicht auch noch das rasterization zeugs, was in der zeit halt auch weiter reift und schneller wird. letzteres kann man auch jetzt schon für ähnliche/gleiche effekte nutzen, nur mit dem unterschied, dass es a) überall läuft und b) nen bruchteil der performance kostet und damit in der realität nutzbar ist.
beispiel? haben wir, von gestern. nenne sich hitman 2, bietet auch real-time full scene reflections, halt ohne ray tracing, sehen sauberer aus, kosten fast nichts und könnten noch weiter optimiert werden. klassische rasterization siegt auch diesmal wieder.
|
|
|
|
|
|
|
Was würde man aktuell so kaufen, wenn man nur einen gleichwertigen Ersatz für eine abgerauchte R9 280x haben möchte aber kein Interesse an einem Upgrade hat?
|
|
|
|
|
|
|
RX 570. Ist schon ein bisschen flotter, aber die nächstniedrigere 560 wäre ein Rückschritt von der 280X. Kostet mit 4 GB ab 150¤, 8 GB ab 170¤.
|
|
|
|
|
|
|
Das klingt doch gut. Danke.
|
|
|
|
|
|
|
Ach, heute ist ja der dritte Aufguss von Polaris rausgekommen.
https://www.tomshw.de/2018/11/15/radeon-rx-590-im-test-polaris-am-absoluten-limit/
| Die Erhöhung der Taktfrequenz von Polaris ist jedoch nicht ganz kostenlos zu bekommen. Die offizielle TBP der Radeon RX 590 beträgt nämlich nunmehr 225W im Vergleich zu den älteren RX 580 mit 185W. Auf dem Papier (und nicht nur dort) ist das eine Steigerung der Leistungsaufnahme um satte 22 Prozent, was im Umkehrschluss eine 15-prozentige Übertaktung ermöglichen soll | |
"Polaris ist ein 110W-Chip"
-AMD, 2016
|
|
|
|
|
|
|
Ich frag mich echt warum die Vega nicht in kleinerer Form für das mittlere Segment rausgebracht haben. Zuviele Polaris-chips auf Halde?
|
|
|
|
|
|
|
vega hat kein GDDR interface, von daher müssten die da nen neuen memory controller für bauen und das wäre recht teuer. HBM2 ist für die mainstream karten halt nach wie vor zu teuer.
|
|
|
|
|
|
|
| Zitat von Bregor
Zuviele Polaris-chips auf Halde?
| |
Sicher nicht, gerade die neuen mussten sie ja erst herstellen.
|
|
|
|
|
|
|
Ich bin echt angetan, wie sich die 1080 Ti mit dem Morpheus II Kühler verträgt. Ich hab die Baseplate vom Quasi-FE-Kühler draufgelassen und eine Anzahl von den kleinen Aufkleberkühlerchen auf die Baseplate geklebt (Vorteil: Vorher hat auch nur die Baseplate RAM+Spawa gekühlt, wenn da jetzt mal ein Kühlerchen abfällt, stirbt die Karte nicht direkt -- und die Karte ist so viel steifer, wobei die bei mir ja eh vertikal im Gehäuse hängt, das übliche Problem existiert da gar nicht).
Anyhow, aktuell sind die Lüfter auf dem Kühler manuell gesteuert (in der Grabbelkiste fand sich wider erwarten nicht der passende Stecker und vom Stock-Lüfter abschneiden möchte ich nicht, weil unbeschriftet), im normalen Spielbetrieb sieht die höchstens 60 °C, meistens weniger (aktuell in GTAV z.B. 45-50 °C). Leicht undervoltet (~0.95 V) mit kurz vor 2 GHz und +300 auf den Speichertakt. In GPU-Z steht als PerfCap-Reason meistens "Idle"
|
|
|
|
|
|
|
Sind die Seiten 117 und 118 nur im pOT-Droid leer?
Mh, der Post taucht auf, auf Seite 116.
Naja, nicht mein Problem.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Rootsquash am 14.12.2018 15:49]
|
|
|
|
|
|
Mit der Löschung Atanis wird wird das alles in ordnung kommen alles Verschoben werden.
|
|
|
|
|
|
|
2018 ist das Jahr des pOTizids.
|
|
|
|
|
|
|
Und da geht NV down.
"G-Sync Compatible" nennen sie ihre Unterstützung von adaptive sync.
|
|
|
|
|
|
|
Erklär Mal, bitte.
|
|
|
|
|
|
|
Man möge mich berichtigen falls ich was falsches sage.
Adaptive Sync ist die Technik, die es dem Monitor erlaubt seine FPS mit der Ausgabe der GPU zu synchronisieren, sodass es kein Tearing gibt. Nvidia hat dazu G-Sync entwickelt. Einen extra-Chip um den der Monitor gebaut wird und der extra kostet. VESA hat dann später Adaptive Sync als Standard entwickelt, und das steckt quasi ab Werk in jedem Monitor, der GPU-Hersteller muss nur einen Treiber dafür bauen, das hat AMD mit Freesync getan.
NV hat jahrelang AS ignoriert und ihren G-Sync-Kram verkauft, doch jetzt knicken sie ein und unterstützen doch den offiziellen Standard. Mit dem Seitenhieb, das ihre eigene G-Sync-Implementierung die Premiumkosten wert sind.
Schlecht für AMD daran: G-Sync hat immer extra Geld gekostet und man war bei der Monitorwahl eingeschränkt. Das war ein verkaufsförderndes Argument für AMD-Karten die in der P/L eigentlich auf Augenhöhe sind, bei verbrauch jedoch hinterher hinken. Aber mit NAVI (Neue AMD-GPU) wir das alle sin Ordnung kommen.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Bregor am 07.01.2019 8:32]
|
|
|
|
|
|
Sweet.
Sollen zur CES nicht auch neue AMD Grafikkarten angekündigt werden?
Und da ich eh nen neuen 21:9 Monitor suche, kann ich ja getrost auf AS gehen.
//Ein "Sweet" raus, sonst bekommt man ja Diabetes.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von GandalfDerPinke am 07.01.2019 8:37]
|
|
|
|
|
|
Nvidia hat für ihre Unterstützung für variable Bildraten am Monitor "G-Sync" eine proprietäre Lösung verwendet, die ein Zusatzmodul im Monitor benötigt und das ganze Ding deutlich teurer macht.
AMD hat mit FreeSync eine Lösung verwendet, die ohnehin schon unter dem Namen "AdaptiveSync" standardisiert war, weil sie in Notebookdisplays zum Energiesparen verwendet wird und die über DisplayPort einfach so funktioniert, wenn Monitor und Graka das können. Kann man halt weniger Geld mit machen.
Nvidia hat sich dem bewusst verweigert, weil sie ihre eigene Lösung durchdrücken wollten. Wenn du dann einmal ein G-Sync-Display hast, bist du quasi auch an NV-Grafikkarten gebunden. Umgekehrt brauchtest du so ein Display, wenn du variable Frameraten an ner NV-Grafikkarte nutzen wolltest.
Jetzt ist. NV eingeknickt und sie haben AdaptiveSync im Treiber(?) freigegeben.
Korrektur, AS wurde auch erst später standardisiert, basiert aber auf dem Trick, in Notebookdisplays die Bildwiederholrate zu senken, um Energie zu sparen.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Xerxes-3.0 am 07.01.2019 8:42]
|
|
|
|
|
Thema: Der Grafikkarten-Thread ( Jahr 2010 Edition mit Evergreen und Fermi ) |