Du bist nicht eingeloggt! Möglicherweise kannst du deswegen nicht alles sehen.
  (Noch kein mods.de-Account? / Passwort vergessen?)
Zur Übersichtsseite
Hallo anonymer User.
Bitte logge dich ein
oder registriere dich!
 Moderiert von: Atomsk, dancing_quake, GarlandGreene, Sharku


 Thema: Der Grafikkarten-Thread ( Jahr 2010 Edition mit Evergreen und Fermi )
« erste « vorherige 1 ... 93 94 95 96 [97] 98 99 100 101 ... 133 nächste » letzte »
erste ungelesene Seite | letzter Beitrag 
da gig

tf2_spy.png
 
With Vega the High Bandwidth Cache Controller is clever enough to know beforehand what data is actually useful and load it into the cache and what data isn’t and leave it out.



ich steck da technisch überhaupt nicht drin, deshalb frag ich mal:
ein chip kann doch nicht mehr wissen, als der programmierer, der den speicherverbrauch seines programmes im auge hat.
dsa klingt einfach nach marketing zaubersprech.


außerdem mag ich persönlich solche sachen wie "diese 8gb mit cleverem controller sind wie 16gb" überhaupt nicht.
das ist wie damals die amd cpus mit 3400+ MHz, die genau so schnell sein sollen wie ein intel mit echten 3400MHz. Das hab ich AMD damals nicht abgenommen und lieber einen Pentium 4 gekauft, der dann 6 Jahre gehalten hat. War im nachhinein die bessere entscheidung.
21.01.2017 2:03:28  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Bregor

AUP Bregor 26.01.2009
Der Athlon XP hat dem dickeren Pentium 4 doch gut die Stirn geboten damals.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Bregor am 21.01.2017 2:29]
21.01.2017 2:28:27  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
TheRealHawk

AUP TheRealHawk 26.11.2007
 
Zitat von da gig

außerdem mag ich persönlich solche sachen wie "diese 8gb mit cleverem controller sind wie 16gb" überhaupt nicht.


Ich halte auch nicht viel von zuviel Magie, wenn das nicht perfekt funktioniert gibt es immer wieder Fälle in denen die Karte komplett abkackt, wie bei der 970. Wird aber schon schwierig das zu testen, gibt ja kaum Spiele mit denen man die Grenze knackt. In 8K vielleicht Hässlon
16GB HBM sind wohl zu teuer.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von TheRealHawk am 21.01.2017 10:32]
21.01.2017 10:32:31  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Flash_

AUP FIash 26.01.2008
 
Zitat von da gig

ein chip kann doch nicht mehr wissen, als der programmierer, der den speicherverbrauch seines programmes im auge hat.


Die Grafikkarte wird also mit einem Programmierer ausgeliefert, der immer neben dran sitzt und von den 512 GB/sec für jedes Bit in Echtzeit entscheidet, ob es in den Cache soll? peinlich/erstaunt
21.01.2017 11:59:21  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Traxer

Mod GSG9
 
Zitat von da gig

 
With Vega the High Bandwidth Cache Controller is clever enough to know beforehand what data is actually useful and load it into the cache and what data isn’t and leave it out.



ein chip kann doch nicht mehr wissen, als der programmierer, der den speicherverbrauch seines programmes im auge hat.
dsa klingt einfach nach marketing zaubersprech.


erm, der chip kann das in teilen schon. eine grafikkarte / GPU funktioniert ein wenig anders, als es z.b. eine CPU tut. insbesondere, was das speichermanagement angeht.

kurzer exkurs:

auf der CPU seite allokierst du als programmierer tatsächlich speicher in byte grössen, dabei entweder als reinen adressraum ohne dahinterstehenden RAM oder eben mit dahinterstehendem RAM.
wenn du hier z.b. ein array (eine lineare datenstruktur) von 1024 einträgen der grösse 1 byte pro element benötigst, dann gehst du hin und allokierst 1024 byte.

bei einer GPU allokierst du resourcen mit bestimmten parametern und nicht wirklich irgendwas, was eine byte grösse hat.
brauchst du z.b. eine 128x128 pixel grosse textur, dann bedeutet das noch lange nicht, dass du da nur 16384 byte allokierst, sondern da ist es dann abhängig davon, was die textur für ein format hat, was für filter darauf angewendet werden sollen, ob das nen rendertarget ist und so weiter. dann kommt noch dazu, dass die textur je nach nutzung anders im speicher abgebildet wird, damit darauf optimal mit der maximalen bandbreite zugegeriffen werden kann oder aber das darauf wahlfrei zugegriffen werden kann.
das ganze gilt inzwischen so (in etwas vereinfacht) auch für etwaige andere speicherarten, wie z.b. vertex / index / structured / usw buffer.


der cache controller:
ohne da jetzt irgendwas genaueres über AMDs HBM CC zu wissen, gehe ich hier jetzt einfach mal davon aus, dass die neue architektur in der lage ist vorherzusagen, welche teile einer textur bzw. eines buffers in naher zukunft (takt zyklen) benötigt wird, das ist in etwa so wie auf der CPU auch. dabei geht die CPU hin und schaut sich die nächsten load instructions an und versucht daraus dann abzuleiten, welche speicherbereiche in nächster zeit gebraucht werden, die werden dann im vorfeld schonmal vom RAM geholt. dabei kann es je nach programm sehr gut sein, dass der speicher nicht benötigt wird und dann einfach weggeworfen wird.
so als relation: der zugriff vom prozessor auf den cache ist super schnell, weil der so nah an der eigentlichen CPU sitzt. für zugriffe auf den RAM brauchst du unter optimalen bedingungen mehrere nanosekunden um die ersten bits davon für die CPU sichtbar zu bekommen. in der zeit hat die CPU nen paar millarden instruktionen verarbeitet und muss dann entweder warten oder spekulativ irgendwas anderes machen. letzteres kann allerdings vollkommen fürn arsch sein.
aus dem grund ist es so verdammt wichtig die richtigen datenstrukturen zu wählen.

du kannst aber bei einer GPU, basierend auf den oben genannten spezialitäten, nicht einfach hingehen und linear irgendwas cachen, sondern musst spezifische teile von texturen und buffern aus dem VRAM greiffen und in den schnelleren cache verfrachten. das kann ein wenig dauern.
zusätzlich muss man hier immer berücksichtigen das die GPU nahezu nie genug bandbreite für den zugriff auf dem VRAM hat. selbst die HBM werte sind nicht genug, wenn du die vollständige parallele rechenleistung von einer einzelnen GPU vollständig ausnutzen würdest.


da mir ebenfalls keine genaueren informationen zu dem HBM CC vorliegen gehe ich einfach mal davon aus, dass die dem CC mehr informationen aus diversen bereichen der shader cores und restlichen fixed function blöcken zur verfügung stellen, was dem CC dann erlaubt bessere entscheidungen treffen zu können.

es wird ebenfalls vermutlich so sein, dass der nen history buffer hat, der es ermöglicht basierend auf den informationen eines vorangegangenen frames bzw. compute satzes, die gleichen resourcen vorab wieder in den cache zu laden, also bevor sie angeforder werden. damit werden die load OPs dann zu nicht blockenden operationen.

da AMD schon seit der ersten GCN generation ein vollständiges virtuelles speichermanagement auf der GPU seite hat, welches teile des CPU seitigen hauptspeichers einblenden kann, kann es hier auch sein, dass der CC teile von dort frühzeitig anfordern kann, die dann entsprechend automatisch in den VRAM und lokalen cache gesaugt werden. damit kann dann tatsächlich das ganze so aussehen, als wenn du da pervers viel VRAM hast, ohne das der lokal auf dem board ist. haken an der sache ist aber, dass der kram dann auch im RAM liegen muss und das die PCIe lanes nicht vollständig belegt sind.

dieser letzte teil würde aber vermutlich für alles vor DX12 & Vulkan irrelevant sein, da man hier einfach keine möglichkeit hat den kram zu mappen. selbst bei DX12 bin ich mir da jetzt so spontan nicht sicher, ob sich das mit der API vereinen lässt. Vulkan hat dafür sachen vorgesehen, weil einige der mobile chips das schon seit längerem so machen, ok, nahezu alle.

ich tippe eher darauf, dass der controller mehr informationen zugeführt bekommt und das der nen history buffer hat, dass sollte schon einiges an performance bringen können.

was die aussage mit der grösse angeht, nunja, im prinzip wäre das auch möglich, wenn man die texturen als tiled / sparse anlegt und die GPU dann der CPU nen page fault signalisiert und die applikation das ganze dann sauber managed. das ist allerdings etwas, was die GCN karten auch schon seit GCN 1.0 oder GCN 1.1 können. also den teil mit dem page fault.
das was da bisher nicht funktioniert ist, dass der Windows Memory Manager einfach arsch langsam ist und das daher kaum nen sinn macht es zu nutzen. das gilt hier aber genau so für die Pascal chips von nvidia. da hat MS einfach was ganz grob verkackt.

wie schon gesagt, ist es technisch möglich einen DMA von seiten der GPU in richtung CPU seitigen RAM zu initialisieren, prinzipiell auch direkt bis runter zu einem tertiären storage element (HDD / SSD).
passiert das allerdings nicht rechtzeitig, also so in etwa 1-4 frames (im falle von liegt im RAM) bevor die daten benötigt werden, dann bringt das nicht wirklich viel. zumindest nicht für real-time anwendungen wie spiele. bei so sachen wie GPGPU sieht das schon anders aus, da kann das gewaltig was bringen, weil du auf einmal direkt auf resourcen zugreiffen kannst, die nicht lokal im VRAM vorhanden sind.

so ein controller kann schon was bewegen, wenn er die richtigen informationen zur verfügung hat und die entsprechenden möglichkeiten.

ein krudes beispiel wie man sich das vorstellen kann sind die spiele und anwendungen die in den letzten jahren Virtual Texturing aka Megatexturing eingesetzt haben. das ist effektiv eine möglichkeit auf texturen zuzugreiffen, die zu gross sind um in den lokalen VRAM zu passen. hier wird dann ein page fault emuliert und darauf hin die entspreichenden daten in den VRAM geschoben.
in dem fall oben würde die GPU das dann vollkommen autark machen und entsprechend schneller und korrekter.

 
Zitat von da gig

das ist wie damals die amd cpus mit 3400+ MHz, die genau so schnell sein sollen wie ein intel mit echten 3400MHz. Das hab ich AMD damals nicht abgenommen und lieber einen Pentium 4 gekauft, der dann 6 Jahre gehalten hat. War im nachhinein die bessere entscheidung.


nunja, da der pentium 4 mit abstand die beschissenste architektur gewesen ist, die intel jemals erfunden hat, war AMDs aussage da schon recht ok. die prozessoren lagen in etwa auf dem gleichen performance niveau wie der P4, in vielen sachen waren die sogar nen ticken schneller.
der P4 und insbesondere die Prescott variante davon haben nicht zu unrecht den ruf eine heizung mit eingebautem taschenrechner zu sein.
das ist auch der grund, warum mein damaliger Pentium-M Dothan den um 700 MHz höher taktenden P4 im rechner locker geschlagen hat und das in nahezu allem. das wiederum ist auch der grund dafür, dass wir aktuell mit einer weiterentwicklung dieses Dothan chips arbeiten und nicht mit einer der P4 architektur. der Dothan chip ist übrigens eine weiterentwicklung der Pentium 3 architektur, die wiederum sehr ähnlich zu AMDs damaligem architektur ansatz war, weil die als konkurrenz zu dem ursprünglichen Athlon gestrickt wurde, weil intel damals absolut nichts als antwort auf den chip hatte.
21.01.2017 13:59:43  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
TheRealHawk

AUP TheRealHawk 26.11.2007
...
Intradesting.



AMD showed two examples of games, The Witcher 3: Wild Hunt and Fallout 4, that benefit from the high-bandwidth cache controllers fine-tuned data usage. In the graph provided by AMD, both games use less memory traditionally allocated for the games at 4K resolution. And in the event that you do exceed the limit of memory allowed in the cache, Vega wont stall or quit on you like a more traditional graphics card might. Instead it allows for the data to be paged in small chunks on demand.
21.01.2017 14:35:18  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Rousi

Rousi
traurig gucken
Die HBM2 Produktion bei SK Hynix bringt weiterhin nicht die erforderliche Verfügbarkeit, bzw. Ausbeute.

http://www.pcgameshardware.de/Vega-Codename-265481/News/HBM2-Verfuegbarkeit-SK-Hynix-Samsung-1219605/
01.02.2017 10:36:27  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
TheRealHawk

AUP TheRealHawk 26.11.2007
Vielleicht hat AMD sich alle Kapazitäten gesichert peinlich/erstaunt Hat Apple bei TSMC doch auch schon gemacht.
01.02.2017 12:10:35  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Bullitt

Guerilla
Moment, hat GP100 kein HBM2?
01.02.2017 12:13:39  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
TheRealHawk

AUP TheRealHawk 26.11.2007
Aber mit 4x4GB Stacks. Gibt ja ne Tesla P100 mit 12GB.

/e: wenn die Verfügbarkeit so mau ist sind die Preise wohl entsprechend hoch. Kann man sich einen Preiskampf wohl abschminken.
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von TheRealHawk am 01.02.2017 12:25]
01.02.2017 12:20:47  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
mindX

AUP mindX 01.06.2009
Frage Neue Grafikkarte gesucht
Hallo zusammen,
ich möchte meine MSI N770 TF 2GD5/OC Twin Frozr Gaming (GeForce GTX 770, 2GB GDDR5) gegen etwas aktuelles ablösen da ich momentan wieder Lust am Zocken (Bf1) habe. Ansonsten sollte die Karte möglichst leise+Stromsparend sein da der Rechner sonst nur für Internet und Lightroom/PS verwendet wird.

Vorhanden sind:
Mainboard ASRock H87 Pro4 mit Xeon E3-1230 und 16GB Ram.
Netzteil ist ein bequiet straigt power E9 480WCM (80Plus Gold)
Monitor 27"HD und ein 22" Eizo.

Sonstige Hardware Upgrades sind in nächster Zeit nicht geplant.
Habt ihr mir eventuell eine Empfehlung dafür? Ich denke auf die neue Generation zu warten lohnt sich nicht wirklich.

Dank&Gruß

mindX
14.02.2017 15:32:21  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
red

AUP Redh3ad 11.10.2009
Mit welcher Auflösung spielst du?
14.02.2017 15:53:30  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
DeeJay

DeeJay
AMD RX480 8GB/ nvidia GTX 1060 6GB wären so die Kandidaten.

GTX 1070 falls mehr als Full HD und/oder auf längere Sicht die maximalen Grafikeinstellungen gefahren werden sollen.

/e Ich würde wohl die Gigabyte Radeon RX 480 G1 Gaming 8G ( Testbericht ) kaufen, falls ich eine neue bräuchte. Das Angebot ist nur noch heute gültig.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von DeeJay am 14.02.2017 16:14]
14.02.2017 16:08:43  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
mindX

AUP mindX 01.06.2009
 
Zitat von red

Mit welcher Auflösung spielst du?



Gute Frage. Hauptmonitor ist der Dell U2715h. Ist auf 2560*1440nativ eingestellt. Ich denke BF1 übernimmt das so.
14.02.2017 16:39:51  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Bregor

AUP Bregor 26.01.2009
Dann wäre ne 1070 wohl angebrachter.
14.02.2017 16:40:29  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
mindX

AUP mindX 01.06.2009
Danke. Besondere Empfehlungen oder schauen was bei den 1070er am besten zum Geldbeutel passt?
14.02.2017 17:10:48  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Rousi

Rousi
verschmitzt lachen
http://www.gamestar.de/hardware/news/grafikkarten/3309972/amd_oder_nvidia.html

[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von Rousi am 20.02.2017 14:52]
20.02.2017 14:50:43  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Bregor

AUP Bregor 26.01.2009
Nvidia still wins. peinlich/erstaunt
20.02.2017 14:53:46  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
sinister.sinner

AUP sinister.sinner 24.01.2016
1080 Ti
http://www.guru3d.com/news-story/nvidia-launches-geforce-gtx-1080-ti-countdown.html




Endlich /o/ \o\
23.02.2017 10:27:23  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
TheRealHawk

AUP TheRealHawk 26.11.2007
Aber nicht für 800¤
23.02.2017 10:32:19  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
sinister.sinner

AUP sinister.sinner 24.01.2016
verschmitzt lachen
Eh nicht. Eher 900¤.
23.02.2017 10:38:47  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Rousi

Rousi
Ich bin ja schon wieder mehr durch AMD gehyped. Wenn Vega dann auch mehr leistet als erwartet (wie Ryzen), dann wirds im Sommer ein Upgrade geben
23.02.2017 12:52:11  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
TheRealHawk

AUP TheRealHawk 26.11.2007
Ich erwarte 1080 Performance für 400¤
23.02.2017 14:47:09  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
d.n.M. *TtC*

dnm
 
Zitat von DeeJay

AMD RX480 8GB/ nvidia GTX 1060 6GB wären so die Kandidaten.

GTX 1070 falls mehr als Full HD und/oder auf längere Sicht die maximalen Grafikeinstellungen gefahren werden sollen.

/e Ich würde wohl die Gigabyte Radeon RX 480 G1 Gaming 8G ( Testbericht ) kaufen, falls ich eine neue bräuchte. Das Angebot ist nur noch heute gültig.



wenn auch spät. die würde ich auf keinen Fall kaufen.

Die Heatpipes hängen ohne Contact Plate auf der GPU, ein feiner Hotspotgenerator. Völlig unerklärlich wer sowas baut. Dazu läuft das Ding thermisch am Limit.

Habe ich schnellstmöglich gecancelt als ich es bemerkt habe. Die MSI Gaming X bekommste hingegen superleise UND dennoch kühl.
23.02.2017 15:27:24  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Rousi

Rousi
 
Zitat von d.n.M. *TtC*

 
Zitat von DeeJay

AMD RX480 8GB/ nvidia GTX 1060 6GB wären so die Kandidaten.

GTX 1070 falls mehr als Full HD und/oder auf längere Sicht die maximalen Grafikeinstellungen gefahren werden sollen.

/e Ich würde wohl die Gigabyte Radeon RX 480 G1 Gaming 8G ( Testbericht ) kaufen, falls ich eine neue bräuchte. Das Angebot ist nur noch heute gültig.



wenn auch spät. die würde ich auf keinen Fall kaufen.

Die Heatpipes hängen ohne Contact Plate auf der GPU, ein feiner Hotspotgenerator. Völlig unerklärlich wer sowas baut. Dazu läuft das Ding thermisch am Limit.

Habe ich schnellstmöglich gecancelt als ich es bemerkt habe. Die MSI Gaming X bekommste hingegen superleise UND dennoch kühl.



MSI RX480 Gaming X 8GB kann ich auch uineingeschränkt empfehlen. Kriegt man aktuell auch für ~240
23.02.2017 17:23:08  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Bregor

AUP Bregor 26.01.2009
Da man die Dinger eh gut undervolten kann (umso mehr wenn man die Silikon-Lotterie gewinnt) ist das glauibe ich bei der Gigabyte auch nicht so ein Problem, oder?

XFX sollen ganz gute Chips bekommen haben wenn man Reddit glauben darf.
23.02.2017 18:01:43  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
d.n.M. *TtC*

dnm
Wenn du hotspots auf dem DIE magst ist Gigabyte ok

Bild groß, aber Handy... sorry

[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von d.n.M. *TtC* am 23.02.2017 18:40]
23.02.2017 18:38:35  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
DeeJay

DeeJay
Hast du ne Quelle dafür? Ich finde nur ein paar Reviews, die nicht gerade begeistert sind von den Temperaturen unter Last, aber nichts, was das erklärt.
23.02.2017 18:41:47  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
d.n.M. *TtC*

dnm
Guck dir einfach das Bild an

zwischen den Heatpipes ist Luft ohne Kontakt zum Die. Da hilft es auch nicht, das Wärmeleitpaste dazwischen ist.

Das mag erstmal funktionieren, ist aber weder auf Dauer gesund noch eine vernünftige Lösung für den Wärmeübergang.

Besonders wenn man bedenkt, dass diese Karte sehr warm wird. Klar, undervolting hilft, die Heatpipe Konstruktion ist trotzdem beschissen!
23.02.2017 19:27:20  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
DeeJay

DeeJay
Hm, kein ungewöhnliches Bild. Das sieht man bei anderen Herstellern und Modellen auch und da liest man von keinen Problemen. Ob das wirklich die Ursache ist? Dafür sind Wärmeleitpaste und Pads schließlich da.
Wenn man sich mal so einige Laptops anschaut, hat der Kühler gar keinen direkten Kontakt zur kühlenden Komponente - da wird einfach ein dickes Pad hingeklatscht und fertig.

Ich möchte die Karte gar nicht verteidigen - schließlich lässt sich objektiv messen, dass die Karte eher zu den heißeren Modellen gehört, aber ich halte die Ursache für eine andere.
23.02.2017 19:49:46  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
 Thema: Der Grafikkarten-Thread ( Jahr 2010 Edition mit Evergreen und Fermi )
« erste « vorherige 1 ... 93 94 95 96 [97] 98 99 100 101 ... 133 nächste » letzte »

mods.de - Forum » Hardware & Netzwerk » 

Hop to:  

Thread-Tags:
Mod-Aktionen:
25.12.2018 13:24:26 Sharku hat diesen Thread repariert.
08.01.2010 19:11:06 Sharku hat diesen Thread angeheftet.

| tech | impressum