|
|
|
|
Das hieße jetzt wieder warten?
Naja, muss ich ja eh, wohl auf die CPU...
Jo, nach oben geht immer, aber vielleicht gibts was, was das Board nicht kann, oder was, was man nie braucht, etc...
|
|
|
|
|
|
|
Es gibt viel an dem Rechner was man nicht braucht.
Danke Xerxes, das probier ich mal aus.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Bregor am 09.10.2017 8:27]
|
|
|
|
|
|
Achja
Was kann ich denn ins bessere ändern bei dem Budget?
|
|
|
|
|
|
|
| Zitat von a1ex
@Chris' Rechner: ist eine 1080Ti schon günstiger geworden oder passen sich die Preise vielleicht in kürze an wenn die 1070Ti da ist?
| | warum sollte das Topmodell günstiger werden wenn ne weitere midrangekarte dazu kommt?
|
|
|
|
|
|
|
Die 1070 ist so teuer. :/
Preislich ist ja eher die 1060 der Nachfolger für die 970, aber ich will halt schon was mit Bumms.
|
|
|
|
|
|
|
dann warte halt, bis die 1070ti raus ist.
nvidia muss da zwangsläufig was in bezug auf die preise der karten darunter machen, andernfalls liegt die dann auf dem preislichen level der 1080, was die wiederum irrelevant macht, wenn die 1070ti eben nicht viel langsamer sein soll.
|
|
|
|
|
|
|
Machen dann bestimmt einen Teil des Speichers schwer nutzbar. Damit haben sie ja Erfahrung.
/ Hab's auch gar nicht so eilig, aber das nächste Jahr hält meine 970 nicht auch noch durch.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Ameisenfutter am 09.10.2017 15:03]
|
|
|
|
|
|
i7-9700K dann nächstes Jahr im 14nm+++ Prozess (sprich: Intel er tee ähm 14 Nano-Meter dreifachdoppelplusgut Technologie).
Sechs Kerne, 3.75 GHz Base, und 4.75 GHz Turbo Nitro Boost 5.0.
Und 16 PCIe-Lanes, wie sich das gehört.
|
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von csde_rats am 09.10.2017 20:20]
|
|
|
|
|
|
Und neuer exklusiver Chipsatz
|
|
|
|
|
|
|
Z470 mit Sockel 1151*
* Mit neuer Pinbelegung
|
|
|
|
|
|
|
Weniger Leistungsaufnahme bei gleichen IPC, worth it!
|
|
|
|
|
|
|
Etzala eine Kunststoffnase versetzt.
|
|
|
|
|
|
|
|
|
|
|
Ich warte ja, bis dieses Next Gen endlich rauskommt.
|
|
|
|
|
|
|
| Zitat von csde_rats
i7-9700K dann nächstes Jahr im 14nm+++ Prozess (sprich: Intel er tee ähm 14 Nano-Meter dreifachdoppelplusgut Technologie).
Sechs Kerne, 3.75 GHz Base, und 4.75 GHz Turbo Nitro Boost 5.0.
Und 16 PCIe-Lanes, wie sich das gehört.
| |
Nope, not anymore you don't
|
|
|
|
|
|
|
Die große Marketing-Zahl ist doch der Single-Core Turbo, weil das die größte Zahl ist.
|
|
|
|
|
|
|
cool 7nm. verbrauchen die dann unter vollast nur noch doppelt so viel wie die von nvdia?
|
|
|
|
|
|
|
Muss man dann mal einen der drei Leute fragen die eine bekommen.
|
|
|
|
|
|
|
| Zitat von M@buse
cool 7nm. verbrauchen die dann unter vollast nur noch doppelt so viel wie die von nvdia?
| |
Nein.
Wir wollen das Gefüge der Welt heute noch nicht niederreißen, bittäh
|
|
|
|
|
|
|
| Zitat von M@buse
cool 7nm. verbrauchen die dann unter vollast nur noch doppelt so viel wie die von nvdia?
| |
vielleicht bekommst du dann bei nvidia auch endlich mal karten die fp16/32 in schneller als unter xbox360 level können, dann könnte man tatsächlich mal next gen machen.
|
|
|
|
|
|
|
Nicht können vs nicht wollen.
|
|
|
|
|
|
|
das ist ja nach wie vor die frage.
das ist entweder wirklich nur durch den treiber kastriert oder aber die haben da wirklich features in dem consumer chip entfernt.
die einzige karte, mit ausnahme der server chips, ist die Quadro GP100 die das überhaupt richtig kann.
alle anderen pascal karten machen double precision aka 64-bit float bei 1/32 der single precision (32-bit float) performance und alle half precision aka 16-bit float ops bei 1/64 der single precision performance.
selbst die maxwell 2.0 karten waren da schneller, weil die einfach gar keine 16-bit ops konnten und das einfach als 32-bit op ausgeführt haben.
die Quadro GP100 macht das wie zu erwarten, single precision ist die baseline, double precision läuft halb so schnell und half precision läuft doppelt so schnell.
im fall von single, double und half im compute bereich sind die dann demnächst bei den mid range vega karten zu finden. im grafikbereich, so lange nichts aus dem bereich half precision genutzt wird, bei und über den grossen vega chips.
wird da allerdings half precision genutzt und die ersten spiele nutzen es bereits für ne ganze latte an post-effects - bietet sich dort an, weil man dort einfach keinen so grossen wertebereich benötigt - dann rennen die pascal chips in nen performance cliff der grössenordnung des marianengrabens.
|
|
|
|
|
|
|
Hallo!
Für ein geplantes System mit Ryzen 7, B350 und einer RX580 frage ich mich, wie viel Watt das Netzteil haben sollte. 500, 550 oder gar 600 Watt? Es kommt eine Festplatte rein und eine Grafikkarte, das schlimmste wird vielleicht eine Soundkarte. Außerdem würde mich interessieren, welche Gehäuse gerade so vernünftig sind?
Chieftec scheint nicht mehr so beliebt, ist Fractal gut? Ich vermisse da irgendwie überall Kartenleser und USB-C Anschlüsse. Ich denke es wird einfach ein ATX werden, weil ich keine Lust mehr habe bei Einbau mit der Grafikkarte aufzupassen.
Danke im Voraus
PS: Aktuell habe ich einen Phenom II X4 925e mit einer Geforce 660GT, Grundzusammenbau war 2009, LianLi Mini-ATX Cube. Hübsch, aber schrauben will man nicht dran.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von hoschi am 10.10.2017 16:11]
|
|
|
|
|
|
| Zitat von Traxer
im fall von single, double und half im compute bereich sind die dann demnächst bei den mid range vega karten zu finden. im grafikbereich, so lange nichts aus dem bereich half precision genutzt wird, bei und über den grossen vega chips.
wird da allerdings half precision genutzt und die ersten spiele nutzen es bereits für ne ganze latte an post-effects - bietet sich dort an, weil man dort einfach keinen so grossen wertebereich benötigt - dann rennen die pascal chips in nen performance cliff der grössenordnung des marianengrabens.
| |
Wenn ich das von dir lese, frage ich mich immer wieder, wieso eine Karte wie die Vega 64, welche hardwareseitig locker auf 1080- und meist auf 1080Ti-Niveau aufgestellt ist und auch eine entsprechend hohe theoretische Rechenleistung hat, trotzdem so sehr mit einer 1080 zu kämpfen hat. Der kleinere Prozess hilft ja offensichtlich auch nicht dabei, Strom zu sparen.
Die können doch nicht einfach so ineffizient sein?
|
|
|
|
|
|
|
|
|
|
|
Ich behaupte mal, es ist einfach die Art der Last. Manche Sachen mag die Architektur eben und manche nicht. Genau wie es auf CPU-Seite auch Anwendungen gibt, die was mit SMT anfangen können, und Anwendungen, die daraus kaum einen Vorteil ziehen.
|
|
|
|
|
|
|
Fury Syndrome, überholt dann in zwei Jahren die 1080 Ti. Ist zwar nett, wäre aber netter wenn sie von Anfang an richtig laufen würde, und an der Leistungsaufnahme (Abwärme) ändert das auch nicht viel. Wird mit steigender Auslastung eher schlimmer.
|
|
|
|
|
|
|
| Zitat von Xerxes-3.0
| Zitat von Traxer
im fall von single, double und half im compute bereich sind die dann demnächst bei den mid range vega karten zu finden. im grafikbereich, so lange nichts aus dem bereich half precision genutzt wird, bei und über den grossen vega chips.
wird da allerdings half precision genutzt und die ersten spiele nutzen es bereits für ne ganze latte an post-effects - bietet sich dort an, weil man dort einfach keinen so grossen wertebereich benötigt - dann rennen die pascal chips in nen performance cliff der grössenordnung des marianengrabens.
| |
Wenn ich das von dir lese, frage ich mich immer wieder, wieso eine Karte wie die Vega 64, welche hardwareseitig locker auf 1080- und meist auf 1080Ti-Niveau aufgestellt ist und auch eine entsprechend hohe theoretische Rechenleistung hat, trotzdem so sehr mit einer 1080 zu kämpfen hat.
| |
das liegt an mehreren dingen.
der erste punkt dürfte einfach sein, dass die treiber halt einfach noch nicht ganz ausgereift sind. das ist auch nicht wirklich was ungewöhnliches bei der neuen hardware. auch nvidia braucht da teils monate nach dem hardware release um die real-world performance auf die reihe zu bekommen.
der zweite punkt ist, dass die amd chips seit GCN 2 effektiv auf mixed workloads ausgelegt sind, die halt nicht nur ausschliesslich vertex und pixel berechnungen durchführen. der chip ist näher an nem general purpose prozessor, als so ziemlich jede andere GPU.
das ganze bringt dir ne gewaltige menge an flexibilität, die wiederum zu nutzen bedeutet aber auch, dass die programmierer (auf anwendungsseite) das auch nutzen müssen, damit das sichtbar wird.
der dritte punkt ist, dass leider sehr viele spiele hersteller dazu neigen nvidias marketing / unterstützung zu kaufen. das ist nen bereich in dem amd in den letzten jahren ein wenig nachgelegt hat, was hier aber auch sehr geholfen hat ist, dass amd einfach zu ziemlich alles offen legt ohne es hinter irgendwelchen paywalls zu verstecken. die leute von amd sind direkt via mail, twitter und co greifbar und antworten bzw. helfen dir. bei nvidia darfst du dafür geld rüberreichen. der grund warum die entwickler nvidia nehmen? einfach, die haben aktuell noch den grösseren marktanteil und man bekommt ein wenig "kostenloses" marketing mit dazu.
das ganze hat halt leider einen gewaltigen haken. alles was die nvidia leute da so "optimieren" funktioniert ausschliesslich auf den aktuellsten nvidia chips und alles andere geht denen (vertraglich) am arsch vorbei. bei den sachen die von amd bisher so optimiert wurden, lief das produkt am ende bei allen schneller, auch bei nvidia.
der mix aus den punkten ist einfach, dass GCN nen paradigmen wechsel ist / war und viele leider probleme damit haben sich an neue sachen zu gewöhnen bzw. sich dort überhaupt erstmal ran zu trauen. das kannst du ganz einfach auch an der adoption von directx12 bzw. vulkan sehen. die leute die damit keine probleme haben, schwärmen davon und die produkte laufen durch die bank weg um einiges flotter und sauberer. die, die damit probleme haben (es nicht lernen wollen) bekommen es auch nicht wirklich gut auf die reihe.
das skurrile an den neuen APIs ist allerdings, dass DX12 und vulkan sehr sehr nahe an dem ist, was seit fast nem jahrzehnt auf den konsolen gemacht wird, auch wenn du da noch mehr zugriff hast. problem hier ist, dass das in aller regel nicht die gleichen programmierer sind.
das ganze hatte eigentlich nichtmal amd losgetreten, sondern intel mit dem larrabee projekt, was dann leider aus diversen gründen halt eingestampft wurde. es gibt das gerücht und es würde zeitlich passen, dass nvidia intel da mit ner patentklage an den hals wollte.
wäre das teil erschienen, dann hätten wir eine komplett frei programmierbare grafikkarte in 2007 gehabt. das teil wäre nicht in der leistungsklasse von den damaligen karten gewesen, allerdings hätte das teil trotzdem locker an allen anderen vorbeiziehen können, da du hier einfach genau das hättest machen können, was für deine anwendung relevant gewesen wäre und den rest hättest du einfach abgeschaltet.
AMDs GCN ist da so das näheste zu.
ein anderer grund, warum nvidia da aktuell noch schneller scheint bzw. ist, ist das deren karten so ziemlich nichts anderes können als grafik workloads. damit sind vertex und pixel operationen gemeint. das hat zur folge, dass nahezu alles in den chips auf genau das getrimmt ist und dafür alles andere direkt raus fliegt.
das hört sich jetzt auf den ersten blick vielleicht gut an, weil mehr performance und so, allerdings ist das auf den zweiten blick ne ziemlich dämliche sache. so lange das so ist, wird es keine wirklichen revolutionen im bereich der real-time computer grafik geben. dabei rede ich (oder die eigentlichen grafikprogrammierer) nicht unbedingt von sexy sachen, die man dem nutzer zeigen will bzw. irgendwelche tollen effekte. es geht inzwischen viel mehr darum, sachen korrekter zu mache und die menge an daten vernünftig managend zu können. das sieht man alleine schon daran, dass die speicherbandbreite nach wie vor das grösste problem auf den karten ist. je mehr texturen du da für das angezeigte benötigst und je mehr post-processing da läuft, desto mehr VRAM und vor allem desto mehr bandbreite brauchst du. mixt man das jetzt noch mit besseren algorithmen die du nur via compute shadern bauen kannst, dann frisst das noch mehr bandbreite und speicher.
schiebst du jetzt halt nur pixel und vertex ops, dann kannst du ne menge fixed hardware und tricks nutzen um performance zu gewinnen. willst du was haben, was flexibel ist, dann musst du die hardware sehr generisch halten, was innovationen ermöglicht.
womit allerdings aktuell alle ein wenig zu kämpfen haben ist das grafik kernel subsystem von windows, was diverse sachen einfach nicht sauber bzw. viel zu langsam macht. das ist z.b. eine der gründe, warum kaum einer was mit den von der hardware unterstützen virtuellen texturen macht. das management auf seiten des windows kernels ist da super langsam.
| Zitat von Xerxes-3.0
Der kleinere Prozess hilft ja offensichtlich auch nicht dabei, Strom zu sparen.
| |
der kleine prozess hilft da schon bei, ich glaube nicht, dass du oder sonst irgendwer gerne wissen will, was der chip auf dem alten process node an strom saugen würde.
kleinere bzw. bessere process nodes kannst du in aller regel immer nur für eine sache nutzen, entweder höhere taktraten und damit mehr verbrauch oder weniger verbrauch und geringere taktung. das gilt beides immer in relation.
es gibt hier schon gute gründe, warum diverse nvidia leute den pascal chip als maxwell 3.0 bezeichnen und nicht als pascal. feature mässig kann der nämlich genau nichts, was maxwell 2 nicht auch kann (wenn wir mal die multimedia engine aussen vor lassen). das einzige was bei dem chip anders ist, sind die pervers hohen taktraten. die chips wären irrsinnig effizient, wenn sie die nicht so hoch takten würden.
aber auch hier, auf pixel bzw. vertex workloads optimierte chips haben einfach nicht so viele schaltungen mit an board, die strom fressen.
die nvidia chips können nach wie vor nicht ansatzweise mit denen aus dem mobile bereich mithalten, wenn man die in das gleiche power envelope stecken würde (<= 15 watt unter last). selbst die nvidia mobile chips können das nicht. die powervr chips, sowie ein gewisser custom chip rennt denen so derbe davon, dass das einfach nur peinlich ist.
| Zitat von Xerxes-3.0
Die können doch nicht einfach so ineffizient sein?
| |
sind sie eigentlich nicht. in relation zu ihren vorgängern auf der älteren process node. wie schon mehrfach gesagt, du kannst eine general purpose architektur nicht mit nem spezialisierten chip vergleichen.
selbst im vergleich zu pascal ist vega eigentlich auch nicht so schlecht, wenn man die reine rechenleistung berücksichtigt. vega hat halt fast nen drittel mehr an leistung.
| Zitat von red
Ich behaupte mal, es ist einfach die Art der Last. Manche Sachen mag die Architektur eben und manche nicht. Genau wie es auf CPU-Seite auch Anwendungen gibt, die was mit SMT anfangen können, und Anwendungen, die daraus kaum einen Vorteil ziehen.
| |
das hat weniger was mit dem "mag die architektur mehr" zu tun, als mit dem wurde dafür geschrieben. wenn ich nen CPU seitiges programm schreibe, dann parallelisiert sich das auch nicht von alleine, damit das überhaupt mehr als einen core / thread nutzt muss ich mir da als programmierer schon gut was einfallen lassen. hier gilt auch, dass sich nicht wirklich jede workload parallelisieren lässt. bei den meisten geht es, auch wenn das teils extremst kompliziert wird.
das problem hier ist eher, dass eben keiner für die doch etwas andere architektur programmiert oder zumindest optimiert.
es gibt inzwischen eine reihe von spielen und anderen produkten, die für die architektur optimiert bzw. dafür geschrieben wurde. in den fällen läuft das ganze ziemlich genau so, wie man es haben will.
CoD:IW ist nen beispiel, forza 7 ist nen beispiel.
ich kann halt auch nach wie vor für nen 386er programmieren und optimieren, allerdings darf ich mich dann nicht wundern, dass ich weder mehr als 3/4 GB speicher, noch mehr als einen einzelnen core / thread nutzen kann. das gabs damals nämlich nicht.
was scheinbar einige teams gerade lernen ist, dass wir wieder in einer zeit sind, in der wir verschiedene spezialisierte wege für verschiedene hardware gehen müssen. hatten wir mitte / ende der 90er schon mal. 3Dfx, nvidia tnt, nvidia geforce, rage, radeon, und mehr. alles davon hatte nen eigenes optimiertes backend.
aktuell bauen die meisten für das, was sie gerade so unterm tisch stehen haben oder aber für die konsolen. gibt schon gute gründe, warum die konsolen häufig die lead platform sind. dort hast du nen fixes ziel auf das du dich einstellen kannst. hier wäre es nur schön, wenn die leute es vielleicht mal schnallen würden - einige haben das inzwischen - das die GCN chips in den konsolen und deren optimierungen ebenfalls in nahezu der gleichen art im PC stecken bzw. dort genau so funktionieren.
| Zitat von TheRealHawk
... an der Leistungsaufnahme (Abwärme) ändert das auch nicht viel. Wird mit steigender Auslastung eher schlimmer.
| |
nicht, dass das nicht grundsätzlich bei hardware so wäre...
--
letztens hatte mal wer gefragt, warum forza 7 so gut auf den GCN chips lief und nicht bei nvidia. nunja, die scheinen halt die optimierungen von der konsole mitgenommen zu haben, dass beinhaltet dann vermutlich half precision post-processing, async compute und co. alles sachen die nvidia nicht schmecken. zusätzlich muss nvidia da halt erstmal nen treiber (scheduler) profil für haben, was nen bischen schwer ist, wenn man im vorfeld wohl nicht eingeladen war um seinen unfug in die engine zu drücken. auch amd war dort wohl nicht mit dabei, halt aber nur das personal nicht, die hardware schon.
was das ganze bestätigt ist, dass es jetzt nach dem treiber update mit neuem profil auf einmal um einiges besser läuft. amd musste da genau gar nichts machen. mich würde es aber nicht wundern, wenn beide da noch ein wenig was aus dem treiber kitzeln können, wenn sie denn wollen bzw. es als relevant ansehen.
/e
transparenz: ich warte darauf, dass nen raid controller mit dem initialisieren von nem 3 TB array fertig wird. seit 4 stunden...
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Traxer am 10.10.2017 20:13]
|
|
|
|
|
|
| Zitat von Traxer
/e
transparenz: ich warte darauf, dass nen raid controller mit dem initialisieren von nem 3 TB array fertig wird. seit 4 stunden...
| |
ZFS mit stumpfen HBA ist <3.
|
|
|
|
|
|
|
Ich hab hier ein Geschenk für dich, hoffe es hilft
|
|
|
|
|
|
Thema: Hardware-Kaufberatung ( Achtung, Kompetenz! ) |