|
|
|
|
Ach das meinste, ja.
|
|
|
|
|
|
|
|
|
|
|
HAPPENING.
Radeon VII für 699$
RIP
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Bregor am 09.01.2019 19:05]
|
|
|
|
|
|
|
|
|
|
Radeon VII
Feb. 9
699$
RTX 2080 Leistung
Tripple-Fan-Design von Haus aus
|
|
|
|
|
|
|
= Evtl. im Best-Case RTX 2080 Leistung, und das Ding braucht so viel Strom, dass das Referenzdesign schon n riesen Kühler braucht.
|
|
|
|
|
|
|
Wird sich ja zeigen. Vlt haben sie auch bei Nvidia abgeschaut was Stock-Kühlung angeht.
|
|
|
|
|
|
|
ich glaube das problem dabei ist nicht die größe des kühlers
|
|
|
|
|
|
|
| With twice the memory and memory bandwidth, the AMD Radeon VII claims to be up to 29 percent and 39 percent faster in gaming and demanding content creation scenarios, respectively, when compared to the Radeon RX Vega 64. | |
Hopp, dass doch ganz nice. Sie schreiben auf dem Slide:
"25% more performance at the same power"
D.h. wenn das Ding wirklich schneller sein soll als Vega 64, dann müsste das auch wieder ne 600W Karte sein .
https://www.tomshardware.com/news/amd-radeon-vii-7nm-gpu-specs,38400.html
e: Oder wir kriegen Vega 64 Leistung mit 450W. Das ist doch alles für den Arsch.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von hödyr am 09.01.2019 19:30]
|
|
|
|
|
|
Hat wer was anderes erwartet? Wenigstens sieht Zen 2 wieder sehr nice aus.
|
|
|
|
|
|
|
|
|
|
|
| Zitat von hödyr
= Evtl. im Best-Case RTX 2080 Leistung, und das Ding braucht so viel Strom, dass das Referenzdesign schon n riesen Kühler braucht.
| |
vielleicht ist der referenzkühler auch einfach nur so gross, weil sie nicht den gleichen griff ins over engineered klo wie nvidia machen wollen.
bei denen ist der referenzkühler halt massiv komplex, nutzt billige lüfter und leistet nicht wirklich was. teile preis für den nvidia ref kühler liegt in etwa bei $80-100 leistet in etwa das, was die restlichen hersteller dann für $20-30 auf die reihe bekommen. nebenbei kannst du das teil fast nicht gebrauchen, weil der einfach nicht wirklich gut wärme abführt, was halt schon leicht peinlich ist, wenn die partner das für weniger als die hälfte des geldes hinbekommen.
was den stromverbrauch angeht, ist zumindest die aktuelle aussage, dass dieser ähnlich zur vega 56 sein soll. das wäre also ein performance boost von ~25-30% bei gleichem/leicht weniger stromverbrauch. damit also ca. 40-60 watt von nvidias rtx 2080 fe entfernt. was ich, bedingt durch den preisunterschied von fast $100 (für die fe), für akzeptabel halten würde, sofern die leistung nicht nur in dem demonstrierten spiel stimmt. der reale preis, also für die nicht ref karte muss sich ja erstmal noch zeigen, kann halt auch sein, dass die dann für $599 übern tisch geht, was die karte dann durchaus für viele recht interessant machen dürfte.
ultimativ gilt auch hier wie immer, man warte auf die ersten unabhängigen benchmarks.
zusätzlich gilt auch, dass das nicht navi ist und dass das einfach nen refresh in kleinerer struktur ist, der vermutlich eher als antwort auf die Titan RTX gedacht ist, so häufig wie da content creators erwähnt wurden. anderes indiz dafür sind die 16 GB HBM2. was den speicher angeht dürfte die karte auf der sicheren seite für die nächsten 2-4 jahre sein.
die karte solltet ihr vermutlich mal eher sehen wie den schritt damals von nvidias maxwell 2 auf maxwell 3 (pascal). das war auch effektiv nur nen DIE shrink und das ausbügeln von kinderkrankheiten. der höhere takt und die einsparungen beim stromverbrauch kamen auch da lediglich durch den kleineren prozess zustande.
was den vergleich zur RTX 2080 angeht:
DXR ist halt nach wie vor kein grund ne rtx zu kaufen, es gibt genau ein einziges spiel, was das so gerade eben unterstützt. bei dem spiel hab ich bisher auch noch niemanden gehört, der das jetzt so wirklich relevant findet, weil man davon in der realität, also wenn man das spiel spielt, absolut kaum was mitbekommt. man steht in shootern halt nicht so häufig vor irgendwelchen gegenständen um sich die anzuschauen...
DLSS ist ebenfalls gerade mal in einem einzigen spiel zu finden und dort ist es qualitativ deutlich schlechter als TAA.
insgesamt sind beide features also mehr oder weniger nach wie vor MIA und es sieht nicht so aus, als wenn sich das in nächster zeit ändern wird. ich bin jedenfalls mal drauf gespannt, wie massiv (eher weniger) der unterschied bei metro nächsten monat wird.
es sind ja auch erst knapp 4 monate, seit dem die karten auf dem markt sind und es gibt nichts was die wirklich nutzt um dem normalen konsumenten mal zu zeigen, warum diese neuen super tollen features unbedingt sein müssen.
ich bin da nach wie vor der meinung, dass nvidia das ein wenig (massiv) überstürzt hat mit dem release der karten.
————
fällt mir gerade noch so ein, es mag sich vielleicht der ein oder andere dran erinnern, dass der name apple hier und da mal gefallen war. apple wollte da mal irgendwann letztes/dieses jahr nen neuen Mac Pro vorstellen, der auf wechselbaren komponenten basiert, es würde mich jetzt auch nicht sonderlich wundern, wenn die karte dafür entstanden ist. die brauchen dafür halt ne karte, die für DCC sachen taugt. da apple nicht mehr bei nvidia kauft, bleibt denen nur amd, so lange deren eigene chips nicht für den desktop reichen.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Traxer am 09.01.2019 20:33]
|
|
|
|
|
|
(achtung laut)
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von hödyr am 10.01.2019 15:23]
|
|
|
|
|
|
Das Namensschema wird aber auch jede Generation bescheuerter.
v Generation
|vv Segment
Radeon 7850
v Segment
| |
| |
Radeon R9 290
|
Generation
v Bling
| v Generation
| |vv Segment
Radeon RX 580
v Generation und Segment
Radeon RX Vega 64
v ???
Radeon VII
|
|
|
|
|
|
|
Lohnt es sich eigentlich, Grafikchips im Chiplet-Design zusammenzulöten?
Frage für einen bekannten Chiphersteller.
|
|
|
|
|
|
|
Ich würd schon sagen ja, der Witz an Chiplets ist ja, dass die Ausbeute sehr hoch ausfällt.
|
|
|
|
|
|
|
|
|
|
|
Wird Zeit, dass nVidia mal wieder zurückstecken muss.
|
|
|
|
|
|
|
| Zitat von hödyr
Ich würd schon sagen ja, der Witz an Chiplets ist ja, dass die Ausbeute sehr hoch ausfällt.
| |
Macht das was an den Latenzen im Chip? Denn einen Grafikchip in mehreren Ausbaustufen, in denen einfach mehr CUs (die waren das doch bei AMD?) dazugepackt werden, wäre schon reichlich bitter für Nvidia, vong Fertigungskosten her.
Vega 7 ist gut um zu zeigen, dass man noch mitspielt, aber so der Burner ist es nicht. Es zeigt aber, dass sie 7nm beherrschen, sie können jetzt Chiplets und sie haben mit Sicherheit eine (post-GCN?) neue Arch7tektur in der Entwicklung.
|
|
|
|
|
|
|
Können Monitore hier eigentlich auch besprochen werden?
Ich hätte ja echt Interesse an einem 21:9 wqhd Bildschirm mit freesync und so wenigstens 75Hz.
Ich hab mir bei der mydealz App seit einiger Zeit nen Filter für Monitore gesetzt, habe aber das Gefühl völlig erschlagen zu werden was Auswahl und Preise angeht.
Habt ihr da irgendwelche Tipps oder Erfahrungen?
|
|
|
|
|
|
|
21:9 und wqhd? Ich finde nur 21:9 UWQHD. Klick
Ansonsten vielleoicht einfach mal bei Geizhals durchklicken, was am meisten gekauft wird.
/e ASUS mit IPS, damit alle IPSler zufrieden sind. Klick. Allerdings nur 100 Hz.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Dr. Schlauschlau am 10.01.2019 18:08]
|
|
|
|
|
|
| Zitat von csde_rats
Wird Zeit, dass nVidia mal wieder zurückstecken muss.
| |
machen die doch gerade schon, die haben doch letztens erst fast 50% ihres unternehmenswertes verloren, weil die keine ahnung von ihren märkten haben.
deren anleger scheinen da ein wenig das vertrauen verloren zu haben.
könnte daran liegen, dass abgesehen von der gaming sparte, womit die 90% ihres umsatzes machen, fast nichts wirklich gut läuft. das wiederum dürfte daran liegen, dass sie inzwischen zu vielen leuten an die beine gepisst haben und die dementsprechend nicht so viel mit denen zu tun haben wollen. dazu kommt noch, dass kaum einer im bereich ki irgendwas proprietäres haben will und nvidia nur genau das liefern kann.
im gaming bereich stagnieren die seit jahren. die aktuellen chips verkaufen sich nicht so sonderlich, weil zu teuer und kein normaler konsument verateht, warum sie irgendwas von den neuen features haben müssen. (müssen sie halt auch noch nicht.)
| Zitat von Xerxes-3.0
| Zitat von hödyr
Ich würd schon sagen ja, der Witz an Chiplets ist ja, dass die Ausbeute sehr hoch ausfällt.
| |
Macht das was an den Latenzen im Chip? Denn einen Grafikchip in mehreren Ausbaustufen, in denen einfach mehr CUs (die waren das doch bei AMD?) dazugepackt werden, wäre schon reichlich bitter für Nvidia, vong Fertigungskosten her.
| |
ja, dass kann die latenzen beeinflussen, sowohl positiv, als auch negativ. hängt davon ab, wie es genutzt wird, was dran hängt und was man damit seitens der software macht.
nunja, ob das für nvidia bitter wird sei mal dahingestellt, die haben ganz andere probleme.
| Zitat von Xerxes-3.0
Vega 7 ist gut um zu zeigen, dass man noch mitspielt, aber so der Burner ist es nicht. Es zeigt aber, dass sie 7nm beherrschen, sie können jetzt Chiplets und sie haben mit Sicherheit eine (post-GCN?) neue Arch7tektur in der Entwicklung.
| |
ob es der burner ist, wir sollte vielleicht mal abwarten, bis benchmarks vorhanden sind, die nicht drei spiele begutachten und von amd selber sind.
wenn die ganzen kinderkrankheiten von der ersten vega hier nicht mehr vorhanden sind, dann kann die durchaus was.
was sie auf alle fälle ermöglicht ist das lesen/schreiben des kompletten vrams in jeden frame bei 60 fps. das alleine macht mal eben sachen wie OIT und vollständige raster reflektionen möglich, weil die bisher einfach durch die speicherbandbreite nicht möglich waren. zusätzlich gibt hier halt vram in mengen, wie man ihn dafür braucht.
|
|
|
|
|
|
|
| Zitat von Traxer
was sie auf alle fälle ermöglicht ist das lesen/schreiben des kompletten vrams in jeden frame bei 60 fps. das alleine macht mal eben sachen wie OIT und vollständige raster reflektionen möglich, weil die bisher einfach durch die speicherbandbreite nicht möglich waren. zusätzlich gibt hier halt vram in mengen, wie man ihn dafür braucht.
| |
Ok, so tief stecke ich im Thema nicht drin, dass ich an sowas gedacht hätte.
|
|
|
|
|
|
|
| Zitat von Traxer
könnte daran liegen, dass abgesehen von der gaming sparte, womit die 90% ihres umsatzes machen, fast nichts wirklich gut läuft.
| |
Es sind ca. 55%. Die anderen teilen sich zu knapp 10% auf professional visualization, knapp 25% datacenter, 5% automotive und etwa 5% OEM & IP. Warum da nichts laufen soll, verstehe ich auch nicht, bis auf den kleinsten Bereich OEM & IP haben die Sektoren (teilweise deutlich) größeres Umsatzwachstum als Gaming.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Flashhead am 11.01.2019 15:05]
|
|
|
|
|
|
|
|
|
|
|
|
|
|
da labert comtech halt scheiße. 3440x1440 ist kein wqhd.
|
|
|
|
|
|
|
|
|
|
|
inoffiziell.
die abkürzung ist ne schöpfung von lg.
|
|
|
|
|
|
|
Ich schaue mir den Mal an. Bestellt ist er, am Freitag sollte ich dafür auch Zeit haben.
|
|
|
|
|
|
Thema: Der Grafikkarten-Thread ( Jahr 2010 Edition mit Evergreen und Fermi ) |