Du bist nicht eingeloggt! Möglicherweise kannst du deswegen nicht alles sehen.
  (Noch kein mods.de-Account? / Passwort vergessen?)
Zur Übersichtsseite
Hallo anonymer User.
Bitte logge dich ein
oder registriere dich!
 Moderiert von: Atomsk, dancing_quake, GarlandGreene, Sharku


 Thema: Hardware-Kaufberatung ( Achtung, Kompetenz! )
« erste « vorherige 1 ... 797 798 799 800 [801] 802 803 804 805 ... 1300 nächste » letzte »
erste ungelesene Seite | letzter Beitrag 
ghostbear

ghostbear
Soweit kommt das noch. Budget ist schon um ein solides Drittel überschritten.Breites Grinsen

Dann werden es wohl gut 5-6 Wochen ohne PC, das ist mir das letzte mal vor gut 15 Jahren oder so passiert. peinlich/erstaunt
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von ghostbear am 28.08.2015 23:16]
28.08.2015 23:13:45  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
ghostbear

ghostbear
Lohnt sich das etwas teurere Corsair?

http://www.mindfactory.de/product_info.php/550-Watt-CoolerMaster-VS-Series-Modular-80--Gold_935043.html


http://www.mindfactory.de/product_info.php/page/3/550-Watt-Corsair-RM-Series-Modular-80--Gold_932931.html
30.08.2015 9:49:21  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Traxer

Mod GSG9
werden beide von nem anderen white label produzenten hergestellt. die beiden firmen "kleben" da nur noch ihre logos drauf.

ich persönlich habe da lieber eine firma, die ihre eigenen PSUs herstellt. bei den firmen die "nur" white label zeugs verkaufen kann man sich recht häufig nicht sicher sein, dass man da nen knaller bekommt.
es gibt da so einige white label firmen, die das z.b. mit den lötstellen oder gewissen komponenten und ihren spezifikationen nicht so sonderlich genau nehmen.

firmen die ihre PSUs selber herstellen sind z.b. enermax, seasonic, HEC, zippy.

die letzteren beiden sind nicht unbedingt im bereich der consumer geräte zu finden.
30.08.2015 10:47:17  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
ghostbear

ghostbear
Danke für die Info, ich denke dann wird es dieses werden.


http://www.mindfactory.de/product_info.php/730-Watt-Enermax-Revolution-XT-Modular-80--Gold_939741.html
30.08.2015 12:41:47  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Xerxes-3.0

AUP Xerxes-3.0 07.09.2008
 
Zitat von Traxer

firmen die ihre PSUs selber herstellen sind z.b. enermax, seasonic, HEC, zippy.


...jedenfalls nixcht mehr durchweg. Das Revolution X'T wird bei CWT gefertigt
30.08.2015 13:00:55  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
ghostbear

ghostbear
http://www.golem.de/news/core-i7-6700k-im-test-skylake-ist-intels-beste-plattform-1508-115528.html

Spielt der Schlusssatz auf die Xeons an? Nun doch so früh?
30.08.2015 22:10:02  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Flash_

AUP FIash 26.01.2008
Ich glaub eher nicht peinlich/erstaunt
30.08.2015 22:14:18  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Xerxes-3.0

AUP Xerxes-3.0 07.09.2008
Was geht eigentlich gerade bei Western Digital?

Haben die ihr Portfolio umgestellt? Die Platten sind -gerade blue- kaum verfügbar und/oder teuer, dafür kommen jetzt diese Desktop Everyday/Performance etc. bei Geizhals dazu.
30.08.2015 22:51:42  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Gasbrand

Arctic
Ich bräuchte nochmal eine Beratung was die Komponentenauswahl angeht bei der Zusammenstellung des Rechners für meine Freundin. Anforderung ist immer noch hauptsächlich Multimediabearbeitung und Budget bis 900¤( mit Monitor)

Geizhals Einkaufsliste
31.08.2015 0:21:08  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
ghostbear

ghostbear
Ist ein Preisunterschied von 22% zwischen Internet und Einzelhandel normal?
31.08.2015 16:27:42  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
ghostbear

ghostbear
Ist mir schon klar. Es geht um die Höhe der Differenz. Bei verschiedenen Waren gibt es ja durchaus unterschiedliche Gewinnspannen.
31.08.2015 18:35:00  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
PLZG

Arctic
Hallo

Ich suche einen Arbeitslaptop für die Uni.

Was brauche ich:
Lange Akkulaufzeit
Office Anwendungen
Internet
Leicht

Was brauche ich nicht:
Dicke Grafikkarte zum zocken.
Laute Lüfter

Hoffentlich versteht ihr worauf ich hinaus will. Ein Kollege meinte ich soll mich mal bei Lenovo Thinkpads umschauen. Sind die gut? Wenn ja welche und wo bekomm ich die günstig. Danke für eure Hilfe.

Edit: Weil ich die Preise gerade sehe. Ich will keine 1000¤ ausgeben. Vielleicht maximal 400.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von PLZG am 01.09.2015 22:14]
01.09.2015 22:11:13  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Natanael

AUP Natanael 12.04.2008
Er will ein Thinkpad! Leasingrückläufer, überarbeitet!
01.09.2015 22:12:43  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
hödyr

hödyr
Ich habe nen Kumpel der relativ Nvidia verblendet ist, weil seine ATi All-in-Wonder oder so damals scheisse war.

Kann mir mal jemand links geben warum er jetzt ne R9 390 kaufen sollte statt der GTX970 .

Inbesondere mehr Infos zum VRAM Verbrauch künftiger Spiele im Hinblick auf die aktuelle Konsolengeneration wären interessant.
01.09.2015 22:17:11  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
red

AUP Redh3ad 11.10.2009
Pfeil
dieser DX12-Benchmark, wo Nvidia so mies ist
wobei das auch nur ne Treibersache sein kann

topaktuell: https://www.google.de/search?q=nvidia+async+compute

Ist halt alles ein bisschen Circlejerk...
[Dieser Beitrag wurde 3 mal editiert; zum letzten Mal von red am 01.09.2015 22:27]
01.09.2015 22:19:37  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
ghostbear

ghostbear
Ich hampel immer noch zwischen dieser

http://www.mindfactory.de/product_info.php/8192MB-Gigabyte-Radeon-R9-390-G1-Gaming-Aktiv-PCIe-3-0-x16--Retail-_1006608.html

Und der hier

http://www.mindfactory.de/product_info.php/4096MB-Gigabyte-GeForce-GTX-970-Gaming-G1-Aktiv-PCIe-3-0-x16--Retail-_976945.html

Bei dem was die R9 an Strom verbraucht kann man schon mal drüber nachdenken.
01.09.2015 23:06:55  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Flash_

AUP FIash 26.01.2008
Auf jeden Fall die GTX 970. Verbraucht deutlich weniger Strom, bleibt kühler und hat die neueren Features. Unter anderem DirectX 12.1 in Hardware und Zero-Fan-Modus. Maxwell ist schließlich eine ganz neue Chip-Generation und nicht die x-te Rebranding der GCN-Architektur wie bei AMD.

e: Zero-Fan-Modus haben beide
[Dieser Beitrag wurde 3 mal editiert; zum letzten Mal von Flash_ am 02.09.2015 0:15]
01.09.2015 23:30:34  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
a1ex

a1ex_small2
 
Zitat von Flash_

Auf jeden Fall die GTX 970. Verbraucht deutlich weniger Strom, bleibt kühler und hat die neueren Features. Unter anderem DirectX 12.1 in Hardware und Zero-Fan-Modus. Maxwell ist schließlich eine ganz neue Chip-Generation und nicht die x-te Rebranding der GCN-Architektur wie bei AMD.


Das ist Käse: http://www.guru3d.com/news-story/nvidia-wanted-oxide-dev-dx12-benchmark-to-disable-certain-settings.html
Allerdings kann der AMD Chip auch nicht komplett DX12.

Gut mit dem Strom das stimmt immernoch. Hat das mal jemand durchgerechnet für gelegentlichen Spieleinsatz? Denn eventuell ist hier die 390 mit ihrem üppigem VRAM einfach besser irgendwann. Ist halt etwas Kaffeesatzlesen momentan.
01.09.2015 23:50:52  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Bregor

AUP Bregor 26.01.2009
150w (laut CB-Test) mehr bei 2h am Tag in 2 Jahren und ca. 30ct/kwh = 65,70¤
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Bregor am 02.09.2015 0:21]
02.09.2015 0:21:00  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Traxer

Mod GSG9
 
Zitat von Flash_

Verbraucht deutlich weniger Strom


das sind effektiv um die 20 watt weniger als die geforce unter last. im normalfall geben die sich was im bereich von um die 5-10 watt. falls man damit mehr videos schaut oder sonstigen nicht 3D kram macht, dann sind die gleich auf.

 
Zitat von Flash_

bleibt kühler


ja. das dürfte so mit der einzige vorteil sein. aber in aller regel erhöht das die komplett temperatur eines durchschnittlichen rechners im midi tower format nicht wirklich.

 
Zitat von Flash_

hat die neueren Features.


die einzigen beiden wirklich neuen features sind "conservative rasterization" und "raster order views" (was übrigens schon länger in den intel IGPs vorhanden ist und von intel entwickelt wurde).

 
Zitat von Flash_

Unter anderem DirectX 12.1 in Hardware


das ist so nicht ganz richtig!

der einzige chip der volles D3D 12 mit allen features unterstützt ist, ob man es jetzt wahr haben will oder nicht, die IGP in den aktuellen skylake CPUs von intel.

maxwell kann das ausschliesslich in version 2.0 (einige titan karten und teile der 900er serie) und dort auch nur in bestimmten konfigurationen.

maxwell kann hier zwar die features "conservative rasterization" und "raster order views" vorweisen, aber im fall des "conservative rasterization" auch nur in der absolut minimalsten variante in der es nur begrenzt nützlich ist.

davon abgesehen ist maxwell nach wie vor ziemlich stark kastriert im vergleich zu den GCN und selbst im vergleich zu den haswell und broadwell IGPs. letztere können nämlich bis auf zwei kleinere features das gleiche.

maxwell 1.0 ist nur "Resource Binding Tier 2" und "Tiled Resource Tier 1" kompatibel, kann keine "stencil reference values" für die pixel shader stage, hat nur (!) 64 UAV slots für alle shader stages, kann keine 16-bit floating point berechnungen und unterstützt ebenfalls nur "Resource Heap Tier 1".

maxwell 2.0 ist dann immerhin schon zu "Resource Binding Tier 2" und "Tiled Resource Tier 3" und "Resource Heap Tier 2" kompatibel. "Conservative rasterization" ist als "Tier 1" vorhanden und es kann die guten "Raster Order Views".
ansonsten bleibt der rest von maxwell 1.0 so wie er ist.

zum vergleich die Haswell IGP kann folgendes:
"Resource Binding Tier 1", keine "Tiled Resources", keine "Typed UAVs", kein "Conservative Rasterization", vollständiger support für "Raster Order Views", keine "Stencil reference values", 64 UAV slots für alle stages, "Logical Blend Ops", "double precision Ops", keine 16-bit berechnungen, "Resource Heap Tier 2".

die Skylake IGP kann folgendes (das teil unterstützt das volle D3D 12.1 programm inkl. aller Tiers!)
"Resource Binding Tier 3", "Tiled Resource Tier 3", "Typed UAVs", "Conservative Rasterization Tier 3", "Raster Order Views", "Stencil reference values", keine UAV einschränkungen (soviel der speicher hergibt), "Logical Blend Ops", "double precision Ops", 16-bit berechnungen, "Resource Heap Tier 2".

AMD GCN 1.0 kann folgendes:
"Resource Binding Tier 3", "Tiled Resource Tier 1", "Typed UAVs", kein "Conservative Rasterization", kein "Raster Order View", "Stencil reference values", keine UAV einschränkungen (soviel der speicher hergibt), "Logical Blend Ops", "double precision Ops", keine 16-bit berechnungen, "Resource Heap Tier 2".

AMD GCN 1.2 kann folgendes:
"Resource Binding Tier 3", "Tiled Resource Tier 2", "Typed UAVs", kein "Conservative Rasterization", kein "Raster Order View", "Stencil reference values", keine UAV einschränkungen (soviel der speicher hergibt), "Logical Blend Ops", "double precision Ops", 16-bit berechnungen, "Resource Heap Tier 2".

eine aufschlüsselung mit den technischen informationen zu den einzelnen features gibt es am ende.

das ganze ist aus meiner sicht von nvidias marketing in etwa so toll gedreht wie das die 970 4 GB VRAM hat (hat sie nicht wirklich) und das die Fermi, Kepler und Maxwell (v1) chips D3D Feature Level 11.1 können (können sie nicht).

 
Zitat von Flash_

Maxwell ist schließlich eine ganz neue Chip-Generation


nunja, wenn man sich so die überschneidungen zwischen maxwell und kepler ansieht, dann ist das mehr ein upgrade eines vorhandenen designes als eine neue architektur.
da war der schritt von Terrascale zu GCN schon wirklich eine neue architektur, die nahezu nichts von der alten mehr inne hatte.

das geht dann jetzt aber mehr in die philosophische richtung.

 
Zitat von Flash_

und nicht die x-te Rebranding der GCN-Architektur wie bei AMD.


nunja, die GCN architektur ist halt inzwischen auch in version 1.4 und nicht mehr in 1.0.

AMD macht halt weniger die marketing mässigen spässe die nvidia die letzten jahre so gefahren hat und konzentriert sich eher auf das eigentliche produkt.
das heist soviel wie, sie müssen nicht für jede mini revision einer architektur das dingen mit grossem tam tam und fanfaren mit einem neuen namen versehen um zu zeigen, "hey wir haben da zwei transistoren mehr eingebaut".

die GCN architektur ist halt nur technisch einfach ein-zwei jahre weiter als es maxwell ist. der irrwitzige part ist, dass GCN damals bei seinem ersten release technisch schon weiter war als es nvidias damalige architektur war.

das was bei AMD leider immer mal zu nem performance technischen problem führen kann ist einfach der D3D 11 treiber. der OpenGL treiber rennt, so lange man sich an die performance infos hält (die gelten übrigens für alle drei IHVs) um einiges schneller und auch schneller als der von nvidia. das wiederum ist historisch auch komisch weil das über jahre nvidias domäne war.

das nvidias chips nach wie vor absolut untergehen, wenn es um reines compute geht ist seit der ersten GCN version mehr als bekannt. es gibt schon gute gründe, warum die GCN sachen damals nur sehr spärlich zu bekommen waren und aus irgendwelchen gründen sehr schnell den weg in richtung des finanzwesens, usw. gefunden haben.

auch wenn nvidia ihre chips gerne in richtung forschung und co pushen will, der mangel an double precision floating point leistung ist einfach ein absolutes no-go in dem bereich. mal ganz zu schweigen von der generellen mässigen leistung der chips in dem bereich.

nvidia hat seit je her mehr wert auf den reinen pixel durchsatz gelegt als alles andere. das ist klasse wenn man den auch wirklich nutzen kann.
das war früher mit den fixed function und frühen shader sachen wunderbar möglich, da du hier als architektur hersteller sehr viel optimieren konntest.
seit ca. shader model 3 hat sich das aber durchaus sehr geändert. man kann inzwischen nicht mehr so ohne weiteres aggressiv optimieren ohne irgendwelche probleme zu verursachen.
letzteres ist inzwischen mehrfach in einigen spielen aufgefallen, da hier auf einmal bugs auftauchten die einfach vor gewissen treiber updates nicht vorhanden waren und die auch nicht auf das konto des spieleherstellers gingen.
ein schönes beispiel, wie das grossartig nach hinten losgehen kann war der RSX in der Playstation 3. der alternative chip in der Xbox 360 von damals noch ATI war dem RSX technisch überlegen. der einzige grund, warum die PS3 dagegen überhaupt auftrumpfen konnte, auch wenn das lange gedauert hat, ist der Cell chip mit den SPUs, die nämlich für alle möglichen sachen verwendet werden um dem RSX arbeit abzunehmen, ganz besonders arbeit im bereich geometry processing.


historisch ist nvidia immer dafür bekannt gewesen ein kick-ass marketing team zu haben, welches jede möglichkeit nutzt um ihre produkte an die leute zu bringen. egal ob die hardware wirklich gut oder eher mässig war / ist. erinnert sich noch wer an den nvidia dustbuster oder die fermi vorstellung mit den holzschrauben im “PCB”?

man kann natürlich auch sagen, dass AMD und vorher auch ATI teilweise ein recht unterirdisches marketing team haben. weiss jemand, dass nahezu alle AMD karten deep color output bis zu 12- und teilweise 16-bit können und das das bei nvidia eigentlich den quadro karten vorbehalten ist?
ist es bekannt, dass die AMD GCN karten mit nem dedizierten video capture ASIC daher kommen (VCE), der weit mehr kann als nvidias NVENC oder intels quick sync?

übrigens der grund warum ich eher das wort "mässig" als "miserabel" oder "schlecht" verwendet ist, dass die hardware alles andere als schlecht ist. nur vieles kann man leider als leihe nicht verstehen, so lange man sich nicht ein bischen tiefer mit den verschiedenen architekturen auseinander gesetzt hat. was auch nicht schaden kann ist ein wenig nachzuschauen, wer was historisch überhaupt entwickelt hat und wer nicht.

einer der gründe, warum ich in den letzten zwei-drei jahren ein problem mit nvidia bekommen habe ist, dass sie alles versuchen selbst zu kontrollieren und ihre eigenen standards versuchen zu pushen wo es nur geht, ohne dabei auch nur ansatzweise daran zu denken, dass einiges sinnvoller über einen (offenen) standard zu lösen wäre.
ein schöne beispiel, was vermutlich inzwischen alle kennen dürften ist g-sync vs. freesync (VESA adaptive-sync). warum nvidia da was proprietäres bauen musst, was man direkt hätte mit einem vorhandenen standard umsetzten können? weil es leider inzwischen zu ihrem geschäftsgehabe passt.
das gleiche kann man mit so einigen gameworks sachen sehen. ein nettes beispiel hier ist HBAO+, was ohne weiteres auf AMD und Intel chips ohne probleme laufen würde, wenn nvidia da nicht nen künstlichen riegel in gameworks vorgeschoben hätte. ähnliches gilt für diverse sachen in gameworks.

es gab da mal eine zeit, die eigentlich noch gar nicht so lange her ist, da hat nvidia diese sachen die man jetzt ausschliesslich via gameworks bekommt als beispiel code ohne NDA und co von deren developer seite herunterladen und nutzen können.
inzwischen bekommt man auf der guten nvidia developer seite selbst banale informationen fast ausschliesslich nur noch gegen ein unterzeichnetes NDA.

irgendwas läuft da aus meiner sicht im lande nvidia ganz gewaltig unrund in den letzten jahren.

das alles zusammen und das entsprechende preis-leistungsverhältnis ist ein grund, warum ich nvidia recht ungerne empfehle, ausser es gibt gute gründe. letzteres ist im fall von consumer anwendungen eher selten der fall.


---

Resource Binding Tiers (dazu gehören auch: UAV slots, Samplers per Stage, etc):
https://msdn.microsoft.com/en-us/library/dn899127%28v=vs.85%29.aspx

Tiled Resource Tiers:
https://msdn.microsoft.com/en-us/library/dn903951%28v=vs.85%29.aspx
https://msdn.microsoft.com/en-us/library/dn879489%28v=vs.85%29.aspx

Typed UAVs:
https://msdn.microsoft.com/en-us/library/dn903947%28v=vs.85%29.aspx

Conservative Rasterization:
https://msdn.microsoft.com/en-us/library/dn903791%28v=vs.85%29.aspx
(die Tiers sind ganz unten im artikel zu finden)

Raster Order Views:
https://msdn.microsoft.com/en-us/library/dn903929%28v=vs.85%29.aspx

Shader Specified Stencil Reference Value:
https://msdn.microsoft.com/en-us/library/dn913201%28v=vs.85%29.aspx

Double Precision Shader zeugs:
https://msdn.microsoft.com/en-us/library/windows/hardware/dn653328%28v=vs.85%29.aspx#dblshader

Shader minimum precision:
https://msdn.microsoft.com/en-us/library/windows/desktop/hh404562%28v=vs.85%29.aspx#Min_Precision

Resource Heap Tiers:
https://msdn.microsoft.com/en-us/library/dn986743%28v=vs.85%29.aspx


eine vielleicht einfachere zusammenfassung mit weniger technik und leider nahezu keinem hintergrund: https://en.wikipedia.org/wiki/Feature_levels_in_Direct3D#Direct3D_12
02.09.2015 6:53:38  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Traxer

Mod GSG9
 
Zitat von red

Ist halt alles ein bisschen Circlejerk...


das ist es halt immer, wenn es da nur drei spieler gibt und einer davon zwar die meisten GPUs im markt hat, aber keiner sie nutzen will.

 
Zitat von red

dieser DX12-Benchmark, wo Nvidia so mies ist
wobei das auch nur ne Treibersache sein kann


da gibt es zwei. da ist einmal der "Ashes of the Singularity" benchmark, der ein RTS simuliert und dann ist da das dingen von Futuremark.

Futuremark:
http://anandtech.com/show/9112/exploring-dx12-3dmark-api-overhead-feature-test

Ashes of the Singularity:
http://wccftech.com/ashes-singularity-alpha-dx12-benchmark/
http://www.eurogamer.net/articles/digitalfoundry-2015-ashes-of-the-singularity-dx12-benchmark-tested

 
Zitat von red

wobei das auch nur ne Treibersache sein kann


zu einem gewissen grad, kann das sein, aber man sollte dabei nicht vergessen, dass auch die AMD treiber noch recht frisch sind und da vermutlich auch noch einiges an optimierungspotential vorhanden ist.

passend dazu -> aktueller neuer AMD beta treiber:
http://support.amd.com/en-us/kb-articles/Pages/latest-catalyst-windows-beta.aspx

 

Performance Optimizations

  • Batman™: Arkham Knight - Performance and quality/stability updates
  • Ashes of the Singularity - Performance optimizations for DirectX® 12




das problem dürfte vermutlich eher in dem punkt liegen, den du als nächstes angesprochen hast.

 
Zitat von red

topaktuell: https://www.google.de/search?q=nvidia+async+compute


als erstes mal, was es damit auf sich hat, in einer hoffentlich verständlicheren variante, als ich es mal eben zusammen schreiben kann:
http://anandtech.com/show/9124/amd-dives-deep-on-asynchronous-shading

effektiv bedeutet das, dass AMDs GCN architektur von vornherein auf compute und async ausgelegt war, wobei nvidias das halt nicht war / ist.
warum das so ist, lässt sich vermutlich nur historisch beurteilen.

wie ich in meinem letzten post geschrieben hatte ist nvidia immer gut dabei gewesen, hardware zu stricken, die teils unheimliche mengen an pixeln pushen konnte. das das teilweise auf kosten anderer sachen ging ist da noch eine andere sache.

das problem was nvidia schon sehr lange hat, ist das sie häufig nur auf das jetzt im markt schauen und ihre hardware nicht auf die zukunft auslegen. das war damals mit den ersten karten die shader konnten schon so. die - damals noch - ATI karten waren technisch damals schon ein wenig weiter als die nvidia chips, dafür waren sie aber teilweise etwas langsamer.

das die GCN architektur eine enorme compute leistung entfalten kann ist ja nicht erst seit den D3D 12 benchmarks bekannt. vielleicht erinnert sich noch jemand daran, dass die ersten GCN karten auf grund von bitcoin mining und anderen number crunching anwendungen sehr stark frequentiert waren, so dass man die teilweise kaum kaufen konnte, weil sie immer vergriffen waren.

nvidias karten, damit leider auch die maxwell sachen, sind nach wie vor primär für traditionelle grafikberechnung getrimmt, was man auch an deren block diagrammen und co sehen kann.
das bedeutet, die chips sind in der lage enorme mengen an geometrie und pixeln zu verarbeiten, aber schwächeln dafür in sehr vielen anderen bereichen.


kleiner ausflug:

das was ich persönlich recht witzig an der sache finde ist, dass nvidia vor jahren mit dem CUDA kram das ganze ins rampenlicht gerückt hat und jetzt da steht und fast komplett den boden unter den füssen verliert.
CUDA ist ausserhalb von akademia nur noch sehr selten anzutreffen und wird immer mehr von DirectComput und OpenCL verdrängt und die GPUs können bei normalen compute anwendungen kaum mit denen der konkurrenz mithalten.


traditionelle grafikberechnung erfolgte in einem stage modell. soll heissen, vorne kommen daten rein, die werden durch diverse shader stages gedrückt, dann gerastert und entsprechend zu einem bild zusammengesetzt. letzteres bekommt man dann zu sehen.
das ist der part in dem die nvidia hardware gut ist!

aktuelle grafikanwendungen (spiele, DCC, usw.) und zukünftige insbesondere werden aber immer mehr die compute sachen parallel nutzen wollen. damit die GPU z.b. nicht warten muss bis sachen aus bzw. in den hauptspeicher (RAM) geladen / geschoben worden sind. das kann mit unter lange dauern. durch die verbindungen gehen aktuell maximal um die 30 GB/s. (grössenordnung: aktuelle GPUs basierend auf GDDR5 schieben ihre daten zwischen GPU und VRAM mit bis zu 380 GB/s, mit HBM > 500 GB/s.)

compute wird gerne parallel eingesetzt um z.b. post-processing effekte wie motion blur, depth of field, etc zu berechnen. das kann man parallel zum berechnen von anderen grafiksachen erledigen.

man darf hier nicht vergessen, ein frame bei 60 FPS / Hz muss in maximal 16.66 ms berechnet sein!

je mehr hier parallel abgearbeitet werden kann und durch z.b. die DMA (das was bei D3D 12 die Copy Engine ist) verstecken kann desto “einfacher” ist es die gewünschten frame zahlen zu erreichen bzw. zu halten.

da nvidias hardware eben nicht auf diese parallele verarbeitung getrimmt ist, kann der scheduler einfach nicht mehr aus den eigentlichen rechenwerken rausholen. mich würde es auch nicht wundern, wenn man mit entsprechenden tools feststellen würde, dass die eigentlichen shader cluster nicht bei maximaler auslastung sind, wenn die chips da ins straucheln kommen.

die andere sache, die nvidia da vermutlich gerade auch ans bein pinkelt ist, dass sie kaum bis gar keine treiber tricks mehr anwenden können. soll heissen, sie können nicht mal eben hingehen und nen shader durch einen ihrer eigenen ersetzten, der auf der eigenen hardware besser performt, weil er irgendwelche irren bugs umgeht. (irre bugs in hardware sind übrigens normal. ihr wollt nicht wissen, was da alles für fehler in z.b. den gängigen CPUs sind, die errata dazu sind teilweise sehr facepalmig.)
der andere teil dieses problems dürfte auch sein, dass die nvidia treiber primär auf das sequenzielle durchreichen von daten an die GPU optimiert waren. das ist mit den neuen APIs nicht mehr gegeben, hier muss der treiber damit rechnen, dass er es von allen seiten gleichzeitig abbekommt und das entsprechend durchleiten muss.


das als kurze ausführung, warum aus meiner sicht nvidia ein paar schwere jahre vor der brust haben wird.

---

eine kleinigkeit noch, man munkelt übrigens, dass auch die GCN chips nicht voll ausgelastet sind, wenn die diese leistungen abrufen, da auch hier scheinbar der scheduler irgendwie noch zu klein ist.
die glasskugel / gerüchteküche besagt, dass der nächste scheduler bei AMD doppelt oder sogar viermal so gross sein wird, die der aktuelle.

was auch nicht so ganz vergessen werden sollte ist, die GCN architektur ist in allen aktuellen konsolen vorhanden, was so viel heissen soll wie, sie wird noch eine sehr lange zeit vorhanden sein.
der vorteil durch die neuen APIs (Vulkan & D3D12) ist, dass diese sehr nahe an den APIs sind, die auf den konsolen verwendet werden und dort schon immer für einige sehr unerwartete performance boosts verantwortlich waren. speziell das libGCM zeugs der PS3 ist dafür bekannt.

wie ich es inzwischen schon zig mal gesagt habe, die AMD hardware wird in der nächsten zeit um einiges leistungsfähiger werden und ist aktuell zukunftssicherer als alles, was nvidia anzubieten hat.
der andere part ist, je mehr richtigen VRAM man auf der grafikkarte hat, desto besser ist das für die leute, die das teil nicht spätestens in 6-12 monaten ersetzten wollen. generell gilt aber nichts kaufen, was nicht mindestens 4 voll funktionsfähige GB am stück hat.

AotS ist vermutlich mit eines der ersten spiele, die D3D12 und Vulkan unterstützten werden, die UE4 engine bekommt beides gerade eingebaut. eine gewisse Source 2 engine von einem absolut unbekannten entwickler spricht nativ Vulkan und es gibt gewisse gerüchte das ein patch für eine gewisse engine aus dem hause EA in der mache ist.

die einzigen, die vermutlich mal wieder den zug verpassen, was die engines angeht ist diese firma die ein komisches spiel immer und immer wieder auf den markt wirft und scheinbar immer die gleichen “dummen” kunden damit anlocken kann.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Traxer am 02.09.2015 8:52]
02.09.2015 8:51:55  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
hödyr

hödyr
Danke
02.09.2015 9:29:17  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Bregor

AUP Bregor 26.01.2009
SEHR Interssant.

Leider kann man kein pOT-Gold vergeben, aber hier:
02.09.2015 9:45:29  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Karachokarl

AUP Karachokarl 15.04.2011
...
Damit die andern Thread Leser auch was an den Kühlschrank kleben können:

02.09.2015 10:40:57  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Bregor

AUP Bregor 26.01.2009
\o/
02.09.2015 10:45:58  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Xerxes-3.0

AUP Xerxes-3.0 07.09.2008
...
Ich bin heute morgen zu spät gekommen weil ich aufm Klo diesen Text gelesen habe.
02.09.2015 10:47:12  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Karachokarl

AUP Karachokarl 15.04.2011
Ich glaube Traxer war zwei Tage nicht auf Arbeit, um den Text zu schreiben.
02.09.2015 11:37:56  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
a1ex

a1ex_small2
...
Das letzte was zwischen mir und AMD steht sind benutzbare Linuxtreiber.
02.09.2015 11:52:07  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
csde_rats

AUP csde_rats 04.09.2021
Mit denen habe ich wenig Probleme. radeon (open source), benutze immer Compositing und ein paar einfachere 3D-Anwendungen. Der closed-source Treiber funktioniert ironischerweise mit einigen nativen Spielen (namentlich TF2 und CSGO) deutlich schlechter (i.e. oft gar nicht).
02.09.2015 11:55:28  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Flash_

AUP FIash 26.01.2008
 
Zitat von Karachokarl

Damit die andern Thread Leser auch was an den Kühlschrank kleben können:

http://i.imgur.com/k5W1dc3.png


und ich hab ihn getriggert \o/

dabei eignen sich meine Posts doch gar nicht zum auseinandernehmen peinlich/erstaunt
02.09.2015 11:58:39  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
 Thema: Hardware-Kaufberatung ( Achtung, Kompetenz! )
« erste « vorherige 1 ... 797 798 799 800 [801] 802 803 804 805 ... 1300 nächste » letzte »

mods.de - Forum » Hardware & Netzwerk » 

Hop to:  

Mod-Aktionen:
11.06.2023 18:29:51 Atomsk hat diesen Thread wieder abgeheftet.
11.06.2023 18:29:35 Atomsk hat diesen Thread geschlossen.
01.05.2020 17:08:07 Atomsk hat diesen Thread repariert.
09.12.2018 22:26:21 Atomsk hat diesen Thread repariert.
13.07.2009 23:45:52 Atomsk hat diesen Thread wieder geöffnet.
13.07.2009 23:13:54 Atomsk hat diesen Thread geschlossen.

| tech | impressum