|
|
|
|
| Zitat von Bregor
Silikon-Lotterie
| |
|
|
|
|
|
|
|
|
|
|
|
ZOMFG DAS MUSS SILIZIUM HEISSEN OMG
|
|
|
|
|
|
|
Recht hat er ja. Naheliegender Übersetzungsfehler, bleibt aber falsch.
|
|
|
|
|
|
|
| Zitat von DeeJay
Hm, kein ungewöhnliches Bild. Das sieht man bei anderen Herstellern und Modellen auch und da liest man von keinen Problemen. Ob das wirklich die Ursache ist? Dafür sind Wärmeleitpaste und Pads schließlich da.
Wenn man sich mal so einige Laptops anschaut, hat der Kühler gar keinen direkten Kontakt zur kühlenden Komponente - da wird einfach ein dickes Pad hingeklatscht und fertig.
Ich möchte die Karte gar nicht verteidigen - schließlich lässt sich objektiv messen, dass die Karte eher zu den heißeren Modellen gehört, aber ich halte die Ursache für eine andere.
| |
muss jeder selber wissen. Auch wenn es funktioniert, kann es eine schlechte Wahl sein.
Ich sage auch nicht das es Probleme gibt, aber es ist für die Haltbarkeit einfach Mist. Zumal es andere Hersteller besser machen.
Beim deinem Notebook Beispiel ist der Wärmeübergang konstant (schlecht), da hast du dann schlimmstenfalls throttling. Hotspots hingegen sind Mist, weil der DIE nominell nicht zu warm ist, an den Hotspots möglicherweise schon. Dazu kommt, das im Notebook die TDP des Chips um Dimension niedriger ist. da können locker 100W dazwischen liegen.
|
|
|
|
|
|
|
| Zitat von DeeJay
Dafür sind Wärmeleitpaste und Pads schließlich da.
| |
Eigentlich ja nicht, nein. Damit sollten nur die unvermeidbaren winzigen Unebenheiten ausgeglichen werden, damit es eben genau nicht zu solcher Hotspotbildung kommt. Bei dem auf dem Bild da ist halt Hopfen und Malz verloren. Gilt für andere ähnlich billigen Konstruktionen auch.
|
|
|
|
|
|
|
| Zitat von SwissBushIndian
| Zitat von DeeJay
Dafür sind Wärmeleitpaste und Pads schließlich da.
| |
Eigentlich ja nicht, nein. Damit sollten nur die unvermeidbaren winzigen Unebenheiten ausgeglichen werden, damit es eben genau nicht zu solcher Hotspotbildung kommt. Bei dem auf dem Bild da ist halt Hopfen und Malz verloren. Gilt für andere ähnlich billigen Konstruktionen auch.
| |
Theoretisch schon. In der Praxis sieht man überall fette Pads, die mangelnden oder gar keinen Kontakt ausgleichen sollen. Bei CPU/GPU-Dies eher selten ( außer in so ziemlich jedem Laptop wie bereits erwähnt ), aber Speicher und/oder Spannungswandler ( siehe oben ) sehr wohl.
Letztendlich weiß keiner, ob bei der oben genannten Karte tatsächlich Hotspots entstehen ohne es mit einer Wärmebildkamera zu überprüfen.
Ich glaube nicht, zumindest keine kritischen. Gibt wie gesagt genug andere Karten dieser Art, die diese Probleme nicht haben.
/ Heatpipe Direct Touch nennt sich diese Art übrigens - gibt's seit Jahren und funktioniert gut.
|
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von DeeJay am 23.02.2017 21:26]
|
|
|
|
|
|
| Zitat von DeeJay
Recht hat er ja. Naheliegender Übersetzungsfehler, bleibt aber falsch.
| |
Oh fuck.
|
|
|
|
|
|
|
| Zitat von DeeJay
| Zitat von SwissBushIndian
| Zitat von DeeJay
Dafür sind Wärmeleitpaste und Pads schließlich da.
| |
Eigentlich ja nicht, nein. Damit sollten nur die unvermeidbaren winzigen Unebenheiten ausgeglichen werden, damit es eben genau nicht zu solcher Hotspotbildung kommt. Bei dem auf dem Bild da ist halt Hopfen und Malz verloren. Gilt für andere ähnlich billigen Konstruktionen auch.
| |
Theoretisch schon. In der Praxis sieht man überall fette Pads, die mangelnden oder gar keinen Kontakt ausgleichen sollen. Bei CPU/GPU-Dies eher selten ( außer in so ziemlich jedem Laptop wie bereits erwähnt ), aber Speicher und/oder Spannungswandler ( siehe oben ) sehr wohl.
Letztendlich weiß keiner, ob bei der oben genannten Karte tatsächlich Hotspots entstehen ohne es mit einer Wärmebildkamera zu überprüfen.
Ich glaube nicht, zumindest keine kritischen. Gibt wie gesagt genug andere Karten dieser Art, die diese Probleme nicht haben.
| |
welche der von dir genannten Komponenten hat über 100w TDP und ist damit vergleichbar? Keine!
und nochmal, gleichmäßig schlechter Wärmeübergang ist nicht vergleichbar mit Hotspots.
|
|
|
|
|
|
|
Du hast ja recht, teilweise. Dennoch beweist das Bild dort eben nicht die hohen Temperaturen der Karte. Darum geht es doch, oder? Also einmal bitte messen wie die Wärmeverteilung ausschaut und dann sind wir vllt schlauer.
|
|
|
|
|
|
|
Die hauen halt ihre Standard-Kühler auf alle Grakas und mit der WLP wird die Verbindung geschaffen. Wenn der Heatspreader halt so klein ist, sieht das dann halt so aus oder nech?
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Bregor am 23.02.2017 21:38]
|
|
|
|
|
|
Witzigerweise lobt die Seite, von der das Bild stammt, die Kühlung...
|
|
|
|
|
|
|
Das Ergebnis zählt ja, nech?
|
|
|
|
|
|
|
| Zitat von Bregor
| Zitat von DeeJay
Recht hat er ja. Naheliegender Übersetzungsfehler, bleibt aber falsch.
| |
Oh fuck.
| |
Macht nix, in der Silikon-Lotterie zu gewinnen hat auch was für sich.
|
|
|
|
|
|
|
| Zitat von DeeJay
Du hast ja recht, teilweise. Dennoch beweist das Bild dort eben nicht die hohen Temperaturen der Karte. Darum geht es doch, oder? Also einmal bitte messen wie die Wärmeverteilung ausschaut und dann sind wir vllt schlauer.
| |
ACHSO
die hohen Temperaturen haben nicht zwangsläufig was mit Hotspots zu tun oder mit diesem schlimmen Direct Heatpipe Spalten Mist. Hohe Temperaturen bedeuten entweder, dass der Kühler als ganzes die Wärme nicht an die Luft bekommt (= kompletter Kühler zu warm und damit zu wenig Temperaturdifferenz zur GPU), der Luftdurchsatz zu niedrig ist (immer noch Kühler zu warm) oder aber die Wärme tatsächlich nicht schnell genug von der GPU zum Kühler kommt oder die Wärme nicht gescheit auf die gesamte Kuhlerfläche verteilt wird. Was bei der Karte der Grund ist will ich gar nicht mutmaßen.
Aber man will keine Hotspots, niemals nicht! Ein Hotspot bedeutet, dass der Tempfühler meldet alles ist noch safe, aber tatsächlich sind einzelne Spots schon deutlich über der zulässigen Temperatur.
|
|
|
|
|
|
|
Unterschreibe ich so.
Vorhang fällt. Fin. Happy End.
|
|
|
|
|
|
|
Das ist auch der Unterschied zum Notebook. Wenn da die Chips global zu warm sind bemerkt das der Temp Sensor und die Leistung wird reduziert. Dann ist zwar die Kühlung scheiße, aber das ist unkritisch. Immerhin wurde das Geld nur auf Kosten der Leistung gespart.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
schöne karte, aber zierlicher als erwartet.
die präsentationen von beiden gestern/heute waren doch etwas uninteressanter als erwartet.
bei nvidia können sich dann jetzt alle über die etwas günstigere 1080 und die ankündigung von vernünftigem dx12 und async compute support. bei amd darf man sich dann auf inhalt freuen, der den kram dann auch nutzt. wobei das bei beiden irgendwie extremes marketing gewürge war, ohne dass da irgendwer vom stuhl gefallen ist oder wäre.
das was ich immer noch recht spassig finde ist, dass nvidia ihr gameworks pusht bis zum abwinken und das ein grossteil der interessanten sachen daraus selbst auf deren eigenen high end karten nicht in richtigen spielen nutzbar ist. mal ganz zu schweigen von läuft auch auf karten der konkurrenz und ist dafür für die konsumenten interessant.
auf der anderen seite, die letzten spiele die in amds programm waren / sind funktionieren nicht nur auf den amd eigenen karten wunderbar, sondern auch auf denen von nvidia und dort bedingt durch die nicht vorhandenen karten auf einem 1080 level auch häufig schneller.
ich frage mich da immer noch, wie viel geld die spiele hersteller da von nvidia in den arsch geschoben bekommen, damit die das integrieren und damit nen sehr grossen teil der spieler / konsumenten aka ihrer direkten kunden verstimmen. das schöne daran ist dann auch immer wieder, dass der spiele hersteller dafür den arsch aufgerissen bekommt, obwohl die da nichts für die qualität dieser blobs können.
insgesamt interessanter wäre es gestern gewesen die anschliessenden entwickler spezifischen präsentationen zu sehen. da scheinen nämlich durchaus interessante informationen mit bei gewesen zu sein, bei beiden und da auch primär für vorhandene hardware und nicht für sachen, die noch unter nda sind.
|
|
|
|
|
|
|
| Zitat von Traxer
mal ganz zu schweigen von läuft auch auf karten der konkurrenz und ist dafür für die konsumenten interessant. | |
Ich hab nicht den Einduck, dass sowas für nVidia von Interesse ist.
|
|
|
|
|
|
|
Was ich nicht ganz rauslesen konnte ist, ob es auch zeitnah Custom Designs geben wird.
Wenn dann will ich da wieder ne Gigabyte Windforce/Gaming Variante haben.
|
|
|
|
|
|
|
Preis fast wie zur Zeit der 980ti, scheinbar ist man doch bemüht im vorraus nicht zu teuer zu sein, falls Vega gut wird.
|
|
|
|
|
|
|
Die Produktion der Chips wird auch immer günstiger.
Können ja noch eine Titan XP Black hinterherschieben
|
|
|
|
|
|
|
Meinst du die Produktion des GP102 oder allgemein?
|
|
|
|
|
|
|
|
|
|
|
| Zitat von Xerxes-3.0
| Zitat von Traxer
mal ganz zu schweigen von läuft auch auf karten der konkurrenz und ist dafür für die konsumenten interessant. | |
Ich hab nicht den Einduck, dass sowas für nVidia von Interesse ist.
| |
dann sollten die sich ganz dringend die frage stellen, warum sie überhaupt ein produkt namens gameworks haben und warum sie für dieses mehr bei den konsumenten werben, als bei den entwicklern.
die konsumenten haben da nichts von, wenn der kram selbst auf den eigenen karten nicht gut läuft.
|
|
|
|
|
|
|
Liegt das nicht meist an fehlender/schlechter Implementierung seitens der Entwickler?
|
|
|
|
|
|
|
| Zitat von TheRealHawk
Wenn AMD ein Stück vom Kuchen abhaben will müssen sie mit ihrem fetten Chip und teurem HBM2 die Preise mindestens mitgehen, viel Gewinn bleibt da nicht übrig.
| |
erm, dir ist schon klar, dass so eine 1080ti in der massenproduktion nicht mehr als ~100 dollar kostet?
der rest sind die aufwändungen für R&D, damit bist du dann irgendwo bei geschätzt um die 300 für die karte, der rest ist die gewinnmarge die nvidia sich da gönnt.
das verhält sich da nicht anders, wie bei smartphones auch. so ein iphone kostet irgendwo um die 100-150 dollar, der rest ist der gewinn.
davon abgesehen ist HBM/HBM2 nicht so viel teurer als GDDR5X.
du vergisst dabei auch, dass AMD noch ein paar andere sparten hat, als nur die GPU produktion und daher nicht ausschliesslich auf die profitabilität dieser speziellen abteilung angewiesen ist, so lange sie nicht massive verluste einfährt. letzteres tut sie nicht, im gegenteil.
davon abgesehen, warum sollten sie die günstiger anbieten müssen, wenn die karte mehr leistung hat und zukunftssicherer ist, als die der konkurrenz?
der bringt in der realität genau so viel, wie er genutzt wird und in dem spiel wird es fast gar nicht verwendet, wenn man rebellion glauben darf.
natürlich ist es davon abhängig ob du überhaupt was hast, was du parallel laufen lassen kannst, existiert da nichts, dann wirst du da auch keinen performance schub sehen.
man könnte jetzt natürlich auf die ganze reihe von spielen verweisen, wo es für einen performance zuwachs sorgt, teils selbst auf nvidia karten.
man könnte jetzt auch darauf verweisen, dass nvidia es gestern nacht selbst in der präsentation erwähnt, als auch als richtungsweisend genannt hat, weil auch ihre karten davon teils sehr gut profitieren können.
man kann natülich auch einfach irgendwo nen benchmark finden, der das absolute gegenteil zeigt.
|
|
|
|
|
|
|
| Zitat von sinister.sinner
Liegt das nicht meist an fehlender/schlechter Implementierung seitens der Entwickler?
| |
absolut. der entwickler davon ist halt nvidia selbst.
als spiele / engine entwickler kannst bzw. darfst du an dem gameworks code nichts ändern.
nachdem du die lizenz akzeptiert hast, die es dir verbietet irgendwas an dem code zu ändern, bekommst du dann einen satz von interfaces (cpp header) und dlls von nvidia die du dann einbinden kannst oder halt auch nicht.
das was dir dann als entwickler bleibt ist den kram zu verwenden und die probleme zu akzeptieren bzw. zu ignorieren (was die meisten machen) oder es nicht zu verwenden. in beiden fällen bekommst du den scheiss ab, den die spieler an den sachen auszusetzten haben oder eben den teil, der meint, dass damit alles besser wäre.
|
|
|
|
|
|
Thema: Der Grafikkarten-Thread ( Jahr 2010 Edition mit Evergreen und Fermi ) |