|
|
|
|
was freu ich mich, wenn die leistungsaufnahme der systeme einzelne stromkreise komplett ausreizen können.
dann kann nvidia sich seine karten sonstwo hinschieben und mal ihre architektur optimieren und die leistungsaufnahme runterschrauben.
|
|
|
|
|
|
|
| Zitat von Atomsk
was freu ich mich, wenn die leistungsaufnahme der systeme einzelne stromkreise komplett ausreizen können.
dann kann nvidia sich seine karten sonstwo hinschieben und mal ihre architektur optimieren und die leistungsaufnahme runterschrauben.
| |
Bis 3600W ist ja noch Zeit
|
|
|
|
|
|
|
denk dran, dass man vom amerikanischen netz ausgehen muss.
da haste 15A bzw. 20A sicherungen, die für 12/16A kontinuierlich ausgelegt sind. das sind 1440W bzw. 1920W.
wenn man dann mal ne aktuelle 3090 und n großes alderlake system betrachtet, gönnt sich das schon einen ordentlichen anteil der kapazitäten.
|
|
|
|
|
|
|
Klang irgendwie nach einem persönlichen Rant. Und da du ja in 240V-Land lebst hättest du eben 3600W bis du nVidia zum Teufel schicken musst. Aber ich finde das tatsächlich gut, dass die den Stromverbrauch nach oben offen sehen. Wer weniger Strom verbrauchen will kann ja eine kleinere Karte kaufen.
|
|
|
|
|
|
|
Dann kann ich mir ja auch einfach ne zweite 3080 kaufen, kommt billiger. Ach halt SLI support wurde ja eingestellt oder?
|
|
|
|
|
|
|
| Zitat von Drexl0r
Dann kann ich mir ja auch einfach ne zweite 3080 kaufen, kommt billiger. Ach halt SLI support wurde ja eingestellt oder?
| |
Die Antwort ergibt keinen Sinn, aber sei's drum.
|
|
|
|
|
|
|
Hm. Jetzt noch ne 6800XT kaufen? nVidia ist mir eh egal.
|
|
|
|
|
|
|
| Zitat von Xerxes-3.0
Hm. Jetzt noch ne 6800XT kaufen? nVidia ist mir eh egal.
| | Halt leider immer noch 300 ¤ zu teuer.
|
|
|
|
|
|
|
| Zitat von Dummvogel
| Zitat von Drexl0r
Dann kann ich mir ja auch einfach ne zweite 3080 kaufen, kommt billiger. Ach halt SLI support wurde ja eingestellt oder?
| |
Die Antwort ergibt keinen Sinn, aber sei's drum.
| |
Liegt vermutlich daran dass es keine Antwort auf deinen Post war. Ich meinte nur, dass eine doppelt so große Grafikkarte mit doppelt so viel Stromverbrauch ja irgendwie kein richtiger Fortschritt ist.
|
|
|
|
|
|
|
| Zitat von Drexl0r
| Zitat von Dummvogel
| Zitat von Drexl0r
Dann kann ich mir ja auch einfach ne zweite 3080 kaufen, kommt billiger. Ach halt SLI support wurde ja eingestellt oder?
| |
Die Antwort ergibt keinen Sinn, aber sei's drum.
| |
Liegt vermutlich daran dass es keine Antwort auf deinen Post war. Ich meinte nur, dass eine doppelt so große Grafikkarte mit doppelt so viel Stromverbrauch ja irgendwie kein richtiger Fortschritt ist.
| |
Naja, doch. Du hast doppelt so viel Leistung wie vorher. Ist sicher nicht für jeden Usecase sinnvoll, aber die Option zu haben ist doch nichts Schlechtes.
Sagen wir eine 4090 mit 350W und eine 4095 mit 500W. Tut doch keinem weh wenn es nach oben hin mehr Optionen gibt, die sonst einfach nicht existieren würden, weil keine Architektur diese Performance mit 350W erreichen kann zu dem Zeitpunkt.
|
|
|
|
|
|
|
wow, evga wird keine nvidia grafikkarten mehr herstellen!
|
|
|
|
|
|
|
Wha wait what?
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Xerxes-3.0 am 16.09.2022 22:02]
|
|
|
|
|
|
|
|
|
|
Nope, anscheinend nicht.
nVidia ist halt ein Hundesohn, wenn man Geschäfte mit denen machen will, und der CEO von EVGA hat anlässlich der 40er Generation beschlossen (mit fertigen Engineering Samples), lieber 80% des Umsatzes ersatzlos zu streichen statt weiter mit denen zu arbeiten.
|
|
|
|
|
|
|
Da muss die Lederjacke sich ja echt was geleistet haben .
|
|
|
|
|
|
|
Da ist das erste Teil!
DLSS3.0 scheint ja echt nochmal nen krasser Schritt zu sein!
OMG der AI Enhancer ist ja auch mega.
|
[Dieser Beitrag wurde 3 mal editiert; zum letzten Mal von Bregor am 20.09.2022 18:55]
|
|
|
|
|
|
Boah fuck, das scheint ja echt ziemlich nice zu sein.
Eigentlich wollte ich ja keine Nvidia-GPU mehr kaufen
Ich hoffe ich bleibe stark.
/Naja, erstmal gucken wie das nach unabhängigen Reviews ausschaut.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Drexl0r am 20.09.2022 19:13]
|
|
|
|
|
|
kein wort zum powerdraw.
die preise sind ein witz, denken wohl man kann einfach die scalperpreise aufrufen.
|
|
|
|
|
|
|
Die sollen zumindest angeblich ca. doppelt so effizient sein. Aber ja, die Preise sind natürlich schon wieder krass (falls es denn überhaupt dabei bleibt) -.-
|
|
|
|
|
|
|
Die werden weggehen wie warme Semmeln, wie immer. Die modernen "Gamer" mit Geld kaufen keine Grafikkarten, die kaufen eine Nvidia.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Bregor am 20.09.2022 19:39]
|
|
|
|
|
|
Sind auf jedenfall nicht alle nach 20 Sekunden ausverkauft wie bei der 3080. Gibt noch einige Karten auf Lager. Aber der Preis ist halt vollkommen lächerlich.
/ja lol, hätte ich mal vor dem Posten die Seite akutalisiert
//Hat trotzdem ne gute halbe Stunde gedauert anstatt 20 Sekunden...
//Ok, jetzt sind wieder welche da was weiß denn ich
|
[Dieser Beitrag wurde 3 mal editiert; zum letzten Mal von Drexl0r am 12.10.2022 15:38]
|
|
|
|
|
|
Das ist ein gutes Zeichen! Glaub ich!
|
|
|
|
|
|
|
AHAHAHAHAHAHAHA
|
|
|
|
|
|
|
Wenn ich bei meiner GPU die Wärmeleitpaste tausche, sollte ich dann auch direkt die Pads tauschen? Also gehen die bei dem Prozess kaputt, oder kann ich die Karte einfach reassemblieren und alles gut?
Und wenn ich sie auch tausche, ist das einigermaßen standardisiert? Also kann ich mir einfach mal einen Stapel pads kaufen mit 0.5, 1.0, 1.5 mm dicke, um die bauchgefühlsmäßig passenden dann zurecht zu schneiden, oder muss ich wirklich erstmal auf den Zehntel mm herausfinden, wie dick sie sein müssen?
Falls es relevant ist: XFX Merc319 6800 XT
|
|
|
|
|
|
|
wenn pads kaputt gehn, merkst du das - dann sind sie nämlich zerrissen.
und die richtige dicke sollten sie auf jeden fall haben. zu dünn und du stellst keinen kontakt her, zu dick und du verbiegst was beim montieren.
ich selbst hab immer die pads von artic cooling genutzt.
was die stärken betrifft - idealerweise vorher schlau machen, aber zwischen 1 und 2mm sollte man das spektrum abdecken können. die stärke kannste i.d.r. aber recht gut an ner unkomprimierten ecke der pads mit nem messschieber erfassen. wenn du pech hast, war dein boardpartner aber faul und hat irgendwo extradicke pads verwendet. da musste dann schauen, ob die die irgendwo findest, oder die alten wiederverwenden kannst.
dritte möglichkeit, die der hersteller verwendet haben könnte, ist übrigends thermal putty. aber das würde ich nur dann besorgen, wenn du auch wirklich weißt, dass es bei deiner karte verwendet wurde.
|
|
|
|
|
|
|
Danke.
Das heißt wenn ich 0.5/1.0/1.5 mm hab ist die Abstufung wahrscheinlich nicht fein genug, sodass eine Dicke davon passen würde? Wie dick die wirklich sind sehe ich halt erst nach dem Auseinanderbauen, weil ich online tatsächlich keine Infos finde. Hab whl zu schlechte Google-Skills. Daher würde ich gerne einfach eine Auswahl unterschiedlicher Stärke vorab ordern.
Zum Kaufen finde ich aber tatsächlich ausschließlich die drei oben genannten Dicken. Verwenden die Hersteller selbst auch genormte Pads oder haben die bspw. mglw. krumme Dicken von 0.72 mm?
Achja und, falls irgendein Pad 2 mm dick ist, zweimal 1 mm zusammenpappen ist wahrscheinlich nicht so toll oder?
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Drexl0r am 26.11.2022 11:50]
|
|
|
|
|
|
| Zitat von Drexl0r
Das heißt wenn ich 0.5/1.0/1.5 mm hab ist die Abstufung wahrscheinlich nicht fein genug | |
doch, doch. 0.5er schritte ist standard.
und ich würde erstmal mit den drei stärken fahren. sollten zu 99% passen. stapeln kann man theoretisch, aber du musst bedenken, dass du dann potentiell ne weitere trennschicht und lufteinschlüsse haben kannst.
was du mal machen kannst ist zu gucken, ob es von ekwb einen kühlblock für exakt deine karte gibt. dann lad dir die anleitung dazu runter. da steht i.d.r. drin, welche pads in welcher stärke gebraucht werden.
|
|
|
|
|
|
|
merci
|
|
|
|
|
|
|
Wieso gibts noch keine Tests von custom cards? Oder bin ich nur zu doof zum Googlen? XFX oder Sapphire 7900 XTX?
Bin v.a. an den noise-normalized thermals interessiert.
|
|
|
|
|
|
|
|
|
|
Thema: Der Grafikkarten-Thread ( Jahr 2010 Edition mit Evergreen und Fermi ) |