Du bist nicht eingeloggt! Möglicherweise kannst du deswegen nicht alles sehen.
  (Noch kein mods.de-Account? / Passwort vergessen?)
Zur Übersichtsseite
Hallo anonymer User.
Bitte logge dich ein
oder registriere dich!
 Moderiert von: Atomsk, dancing_quake, GarlandGreene, Sharku


 Thema: Hardware-Kaufberatung ( Achtung, Kompetenz! )
« erste « vorherige 1 ... 1035 1036 1037 1038 [1039] 1040 1041 1042 1043 ... 1300 nächste » letzte »
erste ungelesene Seite | letzter Beitrag 
ChrissKL

AUP ChrissKL 18.04.2012
Das hieße jetzt wieder warten?
Naja, muss ich ja eh, wohl auf die CPU... traurig

 
Zitat von Bregor

Nach oben geht immer.

https://geizhals.de/asus-rog-strix-z370-f-gaming-90mb0v50-m0eay0-a1703939.html


Jo, nach oben geht immer, aber vielleicht gibts was, was das Board nicht kann, oder was, was man nie braucht, etc...
09.10.2017 7:34:28  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Bregor

AUP Bregor 26.01.2009
Es gibt viel an dem Rechner was man nicht braucht. Breites Grinsen

Danke Xerxes, das probier ich mal aus.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Bregor am 09.10.2017 8:27]
09.10.2017 8:27:13  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
ChrissKL

AUP ChrissKL 18.04.2012
Achja Wütend

Was kann ich denn ins bessere ändern bei dem Budget?
09.10.2017 9:25:08  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Abtei*

AUP Abtei* 11.06.2012
 
Zitat von a1ex

@Chris' Rechner: ist eine 1080Ti schon günstiger geworden oder passen sich die Preise vielleicht in kürze an wenn die 1070Ti da ist?

warum sollte das Topmodell günstiger werden wenn ne weitere midrangekarte dazu kommt?
09.10.2017 9:49:24  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Ameisenfutter

AUP Ameisenfutter 23.12.2022
Die 1070 ist so teuer. :/
Preislich ist ja eher die 1060 der Nachfolger für die 970, aber ich will halt schon was mit Bumms.
09.10.2017 11:59:22  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Traxer

Mod GSG9
dann warte halt, bis die 1070ti raus ist.
nvidia muss da zwangsläufig was in bezug auf die preise der karten darunter machen, andernfalls liegt die dann auf dem preislichen level der 1080, was die wiederum irrelevant macht, wenn die 1070ti eben nicht viel langsamer sein soll.
09.10.2017 13:31:20  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Ameisenfutter

AUP Ameisenfutter 23.12.2022
Machen dann bestimmt einen Teil des Speichers schwer nutzbar. Damit haben sie ja Erfahrung. Breites Grinsen

/ Hab's auch gar nicht so eilig, aber das nächste Jahr hält meine 970 nicht auch noch durch.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Ameisenfutter am 09.10.2017 15:03]
09.10.2017 15:02:18  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
csde_rats

AUP csde_rats 04.09.2021
...
i7-9700K dann nächstes Jahr im 14nm+++ Prozess (sprich: Intel er tee ähm 14 Nano-Meter dreifachdoppelplusgut Technologie).

Sechs Kerne, 3.75 GHz Base, und 4.75 GHz Turbo Nitro Boost 5.0.

Und 16 PCIe-Lanes, wie sich das gehört.
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von csde_rats am 09.10.2017 20:20]
09.10.2017 20:20:05  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Bregor

AUP Bregor 26.01.2009
Und neuer exklusiver Chipsatz
09.10.2017 20:47:40  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Xerxes-3.0

AUP Xerxes-3.0 07.09.2008
...
Z470 mit Sockel 1151*

* Mit neuer Pinbelegung
09.10.2017 20:51:08  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
a1ex

a1ex_small2
Weniger Leistungsaufnahme bei gleichen IPC, worth it!
09.10.2017 21:08:23  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
csde_rats

AUP csde_rats 04.09.2021
Etzala eine Kunststoffnase versetzt.
09.10.2017 21:08:31  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Bregor

AUP Bregor 26.01.2009
Neues Datum m@buse!!!

http://www.guru3d.com/news-story/amd-navi-based-graphics-cards-might-arrive-in-august-2018.html
09.10.2017 22:05:22  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
csde_rats

AUP csde_rats 04.09.2021
Ich warte ja, bis dieses Next Gen endlich rauskommt.
09.10.2017 22:08:19  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Abtei*

AUP Abtei* 11.06.2012
 
Zitat von csde_rats

i7-9700K dann nächstes Jahr im 14nm+++ Prozess (sprich: Intel er tee ähm 14 Nano-Meter dreifachdoppelplusgut Technologie).

Sechs Kerne, 3.75 GHz Base, und 4.75 GHz Turbo Nitro Boost 5.0.

Und 16 PCIe-Lanes, wie sich das gehört.


Nope, not anymore you don't
09.10.2017 23:01:04  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
csde_rats

AUP csde_rats 04.09.2021
Die große Marketing-Zahl ist doch der Single-Core Turbo, weil das die größte Zahl ist.
09.10.2017 23:10:25  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
M@buse

AUP M@buse 22.12.2015
 
Zitat von Bregor

Neues Datum m@buse!!!

http://www.guru3d.com/news-story/amd-navi-based-graphics-cards-might-arrive-in-august-2018.html



cool 7nm. verbrauchen die dann unter vollast nur noch doppelt so viel wie die von nvdia?
09.10.2017 23:27:46  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
TheRealHawk

AUP TheRealHawk 26.11.2007
...
Muss man dann mal einen der drei Leute fragen die eine bekommen.
09.10.2017 23:39:39  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
]Maestro[

AUP Maestro 24.06.2020
 
Zitat von M@buse

 
Zitat von Bregor

Neues Datum m@buse!!!

http://www.guru3d.com/news-story/amd-navi-based-graphics-cards-might-arrive-in-august-2018.html



cool 7nm. verbrauchen die dann unter vollast nur noch doppelt so viel wie die von nvdia?



Nein. Hässlon

Wir wollen das Gefüge der Welt heute noch nicht niederreißen, bittäh
10.10.2017 0:07:43  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Traxer

Mod GSG9
 
Zitat von M@buse

 
Zitat von Bregor

Neues Datum m@buse!!!

http://www.guru3d.com/news-story/amd-navi-based-graphics-cards-might-arrive-in-august-2018.html



cool 7nm. verbrauchen die dann unter vollast nur noch doppelt so viel wie die von nvdia?


vielleicht bekommst du dann bei nvidia auch endlich mal karten die fp16/32 in schneller als unter xbox360 level können, dann könnte man tatsächlich mal next gen machen.
10.10.2017 6:10:51  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
TheRealHawk

AUP TheRealHawk 26.11.2007
Nicht können vs nicht wollen.
10.10.2017 14:05:07  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Traxer

Mod GSG9
das ist ja nach wie vor die frage.

das ist entweder wirklich nur durch den treiber kastriert oder aber die haben da wirklich features in dem consumer chip entfernt.

die einzige karte, mit ausnahme der server chips, ist die Quadro GP100 die das überhaupt richtig kann.
alle anderen pascal karten machen double precision aka 64-bit float bei 1/32 der single precision (32-bit float) performance und alle half precision aka 16-bit float ops bei 1/64 der single precision performance.
selbst die maxwell 2.0 karten waren da schneller, weil die einfach gar keine 16-bit ops konnten und das einfach als 32-bit op ausgeführt haben.

die Quadro GP100 macht das wie zu erwarten, single precision ist die baseline, double precision läuft halb so schnell und half precision läuft doppelt so schnell.

im fall von single, double und half im compute bereich sind die dann demnächst bei den mid range vega karten zu finden. im grafikbereich, so lange nichts aus dem bereich half precision genutzt wird, bei und über den grossen vega chips.
wird da allerdings half precision genutzt und die ersten spiele nutzen es bereits für ne ganze latte an post-effects - bietet sich dort an, weil man dort einfach keinen so grossen wertebereich benötigt - dann rennen die pascal chips in nen performance cliff der grössenordnung des marianengrabens.
10.10.2017 15:55:10  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
hoschi

hoschi
Hallo!

Für ein geplantes System mit Ryzen 7, B350 und einer RX580 frage ich mich, wie viel Watt das Netzteil haben sollte. 500, 550 oder gar 600 Watt? Es kommt eine Festplatte rein und eine Grafikkarte, das schlimmste wird vielleicht eine Soundkarte. Außerdem würde mich interessieren, welche Gehäuse gerade so vernünftig sind?
Chieftec scheint nicht mehr so beliebt, ist Fractal gut? Ich vermisse da irgendwie überall Kartenleser und USB-C Anschlüsse. Ich denke es wird einfach ein ATX werden, weil ich keine Lust mehr habe bei Einbau mit der Grafikkarte aufzupassen.

Danke im Voraus

PS: Aktuell habe ich einen Phenom II X4 925e mit einer Geforce 660GT, Grundzusammenbau war 2009, LianLi Mini-ATX Cube. Hübsch, aber schrauben will man nicht dran.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von hoschi am 10.10.2017 16:11]
10.10.2017 16:09:55  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Xerxes-3.0

AUP Xerxes-3.0 07.09.2008
 
Zitat von Traxer

im fall von single, double und half im compute bereich sind die dann demnächst bei den mid range vega karten zu finden. im grafikbereich, so lange nichts aus dem bereich half precision genutzt wird, bei und über den grossen vega chips.
wird da allerdings half precision genutzt und die ersten spiele nutzen es bereits für ne ganze latte an post-effects - bietet sich dort an, weil man dort einfach keinen so grossen wertebereich benötigt - dann rennen die pascal chips in nen performance cliff der grössenordnung des marianengrabens.


Wenn ich das von dir lese, frage ich mich immer wieder, wieso eine Karte wie die Vega 64, welche hardwareseitig locker auf 1080- und meist auf 1080Ti-Niveau aufgestellt ist und auch eine entsprechend hohe theoretische Rechenleistung hat, trotzdem so sehr mit einer 1080 zu kämpfen hat. Der kleinere Prozess hilft ja offensichtlich auch nicht dabei, Strom zu sparen. Mata halt...
Die können doch nicht einfach so ineffizient sein?
10.10.2017 16:29:44  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
csde_rats

AUP csde_rats 04.09.2021
Treiber.
10.10.2017 16:49:48  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
red

AUP Redh3ad 11.10.2009
Ich behaupte mal, es ist einfach die Art der Last. Manche Sachen mag die Architektur eben und manche nicht. Genau wie es auf CPU-Seite auch Anwendungen gibt, die was mit SMT anfangen können, und Anwendungen, die daraus kaum einen Vorteil ziehen.
10.10.2017 16:54:39  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
TheRealHawk

AUP TheRealHawk 26.11.2007
Fury Syndrome, überholt dann in zwei Jahren die 1080 Ti. Ist zwar nett, wäre aber netter wenn sie von Anfang an richtig laufen würde, und an der Leistungsaufnahme (Abwärme) ändert das auch nicht viel. Wird mit steigender Auslastung eher schlimmer.
10.10.2017 18:33:14  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Traxer

Mod GSG9
 
Zitat von Xerxes-3.0

 
Zitat von Traxer

im fall von single, double und half im compute bereich sind die dann demnächst bei den mid range vega karten zu finden. im grafikbereich, so lange nichts aus dem bereich half precision genutzt wird, bei und über den grossen vega chips.
wird da allerdings half precision genutzt und die ersten spiele nutzen es bereits für ne ganze latte an post-effects - bietet sich dort an, weil man dort einfach keinen so grossen wertebereich benötigt - dann rennen die pascal chips in nen performance cliff der grössenordnung des marianengrabens.


Wenn ich das von dir lese, frage ich mich immer wieder, wieso eine Karte wie die Vega 64, welche hardwareseitig locker auf 1080- und meist auf 1080Ti-Niveau aufgestellt ist und auch eine entsprechend hohe theoretische Rechenleistung hat, trotzdem so sehr mit einer 1080 zu kämpfen hat.


das liegt an mehreren dingen.

der erste punkt dürfte einfach sein, dass die treiber halt einfach noch nicht ganz ausgereift sind. das ist auch nicht wirklich was ungewöhnliches bei der neuen hardware. auch nvidia braucht da teils monate nach dem hardware release um die real-world performance auf die reihe zu bekommen.

der zweite punkt ist, dass die amd chips seit GCN 2 effektiv auf mixed workloads ausgelegt sind, die halt nicht nur ausschliesslich vertex und pixel berechnungen durchführen. der chip ist näher an nem general purpose prozessor, als so ziemlich jede andere GPU.
das ganze bringt dir ne gewaltige menge an flexibilität, die wiederum zu nutzen bedeutet aber auch, dass die programmierer (auf anwendungsseite) das auch nutzen müssen, damit das sichtbar wird.

der dritte punkt ist, dass leider sehr viele spiele hersteller dazu neigen nvidias marketing / unterstützung zu kaufen. das ist nen bereich in dem amd in den letzten jahren ein wenig nachgelegt hat, was hier aber auch sehr geholfen hat ist, dass amd einfach zu ziemlich alles offen legt ohne es hinter irgendwelchen paywalls zu verstecken. die leute von amd sind direkt via mail, twitter und co greifbar und antworten bzw. helfen dir. bei nvidia darfst du dafür geld rüberreichen. der grund warum die entwickler nvidia nehmen? einfach, die haben aktuell noch den grösseren marktanteil und man bekommt ein wenig "kostenloses" marketing mit dazu.
das ganze hat halt leider einen gewaltigen haken. alles was die nvidia leute da so "optimieren" funktioniert ausschliesslich auf den aktuellsten nvidia chips und alles andere geht denen (vertraglich) am arsch vorbei. bei den sachen die von amd bisher so optimiert wurden, lief das produkt am ende bei allen schneller, auch bei nvidia.

der mix aus den punkten ist einfach, dass GCN nen paradigmen wechsel ist / war und viele leider probleme damit haben sich an neue sachen zu gewöhnen bzw. sich dort überhaupt erstmal ran zu trauen. das kannst du ganz einfach auch an der adoption von directx12 bzw. vulkan sehen. die leute die damit keine probleme haben, schwärmen davon und die produkte laufen durch die bank weg um einiges flotter und sauberer. die, die damit probleme haben (es nicht lernen wollen) bekommen es auch nicht wirklich gut auf die reihe.
das skurrile an den neuen APIs ist allerdings, dass DX12 und vulkan sehr sehr nahe an dem ist, was seit fast nem jahrzehnt auf den konsolen gemacht wird, auch wenn du da noch mehr zugriff hast. problem hier ist, dass das in aller regel nicht die gleichen programmierer sind.

das ganze hatte eigentlich nichtmal amd losgetreten, sondern intel mit dem larrabee projekt, was dann leider aus diversen gründen halt eingestampft wurde. es gibt das gerücht und es würde zeitlich passen, dass nvidia intel da mit ner patentklage an den hals wollte.
wäre das teil erschienen, dann hätten wir eine komplett frei programmierbare grafikkarte in 2007 gehabt. das teil wäre nicht in der leistungsklasse von den damaligen karten gewesen, allerdings hätte das teil trotzdem locker an allen anderen vorbeiziehen können, da du hier einfach genau das hättest machen können, was für deine anwendung relevant gewesen wäre und den rest hättest du einfach abgeschaltet.
AMDs GCN ist da so das näheste zu.

ein anderer grund, warum nvidia da aktuell noch schneller scheint bzw. ist, ist das deren karten so ziemlich nichts anderes können als grafik workloads. damit sind vertex und pixel operationen gemeint. das hat zur folge, dass nahezu alles in den chips auf genau das getrimmt ist und dafür alles andere direkt raus fliegt.
das hört sich jetzt auf den ersten blick vielleicht gut an, weil mehr performance und so, allerdings ist das auf den zweiten blick ne ziemlich dämliche sache. so lange das so ist, wird es keine wirklichen revolutionen im bereich der real-time computer grafik geben. dabei rede ich (oder die eigentlichen grafikprogrammierer) nicht unbedingt von sexy sachen, die man dem nutzer zeigen will bzw. irgendwelche tollen effekte. es geht inzwischen viel mehr darum, sachen korrekter zu mache und die menge an daten vernünftig managend zu können. das sieht man alleine schon daran, dass die speicherbandbreite nach wie vor das grösste problem auf den karten ist. je mehr texturen du da für das angezeigte benötigst und je mehr post-processing da läuft, desto mehr VRAM und vor allem desto mehr bandbreite brauchst du. mixt man das jetzt noch mit besseren algorithmen die du nur via compute shadern bauen kannst, dann frisst das noch mehr bandbreite und speicher.
schiebst du jetzt halt nur pixel und vertex ops, dann kannst du ne menge fixed hardware und tricks nutzen um performance zu gewinnen. willst du was haben, was flexibel ist, dann musst du die hardware sehr generisch halten, was innovationen ermöglicht.

womit allerdings aktuell alle ein wenig zu kämpfen haben ist das grafik kernel subsystem von windows, was diverse sachen einfach nicht sauber bzw. viel zu langsam macht. das ist z.b. eine der gründe, warum kaum einer was mit den von der hardware unterstützen virtuellen texturen macht. das management auf seiten des windows kernels ist da super langsam.

 
Zitat von Xerxes-3.0

Der kleinere Prozess hilft ja offensichtlich auch nicht dabei, Strom zu sparen. Mata halt...


der kleine prozess hilft da schon bei, ich glaube nicht, dass du oder sonst irgendwer gerne wissen will, was der chip auf dem alten process node an strom saugen würde. peinlich/erstaunt

kleinere bzw. bessere process nodes kannst du in aller regel immer nur für eine sache nutzen, entweder höhere taktraten und damit mehr verbrauch oder weniger verbrauch und geringere taktung. das gilt beides immer in relation.

es gibt hier schon gute gründe, warum diverse nvidia leute den pascal chip als maxwell 3.0 bezeichnen und nicht als pascal. feature mässig kann der nämlich genau nichts, was maxwell 2 nicht auch kann (wenn wir mal die multimedia engine aussen vor lassen). das einzige was bei dem chip anders ist, sind die pervers hohen taktraten. die chips wären irrsinnig effizient, wenn sie die nicht so hoch takten würden.
aber auch hier, auf pixel bzw. vertex workloads optimierte chips haben einfach nicht so viele schaltungen mit an board, die strom fressen.
die nvidia chips können nach wie vor nicht ansatzweise mit denen aus dem mobile bereich mithalten, wenn man die in das gleiche power envelope stecken würde (<= 15 watt unter last). selbst die nvidia mobile chips können das nicht. die powervr chips, sowie ein gewisser custom chip rennt denen so derbe davon, dass das einfach nur peinlich ist.

 
Zitat von Xerxes-3.0

Die können doch nicht einfach so ineffizient sein?


sind sie eigentlich nicht. in relation zu ihren vorgängern auf der älteren process node. wie schon mehrfach gesagt, du kannst eine general purpose architektur nicht mit nem spezialisierten chip vergleichen.
selbst im vergleich zu pascal ist vega eigentlich auch nicht so schlecht, wenn man die reine rechenleistung berücksichtigt. vega hat halt fast nen drittel mehr an leistung.

 
Zitat von red

Ich behaupte mal, es ist einfach die Art der Last. Manche Sachen mag die Architektur eben und manche nicht. Genau wie es auf CPU-Seite auch Anwendungen gibt, die was mit SMT anfangen können, und Anwendungen, die daraus kaum einen Vorteil ziehen.


das hat weniger was mit dem "mag die architektur mehr" zu tun, als mit dem wurde dafür geschrieben. wenn ich nen CPU seitiges programm schreibe, dann parallelisiert sich das auch nicht von alleine, damit das überhaupt mehr als einen core / thread nutzt muss ich mir da als programmierer schon gut was einfallen lassen. hier gilt auch, dass sich nicht wirklich jede workload parallelisieren lässt. bei den meisten geht es, auch wenn das teils extremst kompliziert wird.

das problem hier ist eher, dass eben keiner für die doch etwas andere architektur programmiert oder zumindest optimiert.

es gibt inzwischen eine reihe von spielen und anderen produkten, die für die architektur optimiert bzw. dafür geschrieben wurde. in den fällen läuft das ganze ziemlich genau so, wie man es haben will.
CoD:IW ist nen beispiel, forza 7 ist nen beispiel.

ich kann halt auch nach wie vor für nen 386er programmieren und optimieren, allerdings darf ich mich dann nicht wundern, dass ich weder mehr als 3/4 GB speicher, noch mehr als einen einzelnen core / thread nutzen kann. das gabs damals nämlich nicht.

was scheinbar einige teams gerade lernen ist, dass wir wieder in einer zeit sind, in der wir verschiedene spezialisierte wege für verschiedene hardware gehen müssen. hatten wir mitte / ende der 90er schon mal. 3Dfx, nvidia tnt, nvidia geforce, rage, radeon, und mehr. alles davon hatte nen eigenes optimiertes backend.
aktuell bauen die meisten für das, was sie gerade so unterm tisch stehen haben oder aber für die konsolen. gibt schon gute gründe, warum die konsolen häufig die lead platform sind. dort hast du nen fixes ziel auf das du dich einstellen kannst. hier wäre es nur schön, wenn die leute es vielleicht mal schnallen würden - einige haben das inzwischen - das die GCN chips in den konsolen und deren optimierungen ebenfalls in nahezu der gleichen art im PC stecken bzw. dort genau so funktionieren.

 
Zitat von TheRealHawk

... an der Leistungsaufnahme (Abwärme) ändert das auch nicht viel. Wird mit steigender Auslastung eher schlimmer.


nicht, dass das nicht grundsätzlich bei hardware so wäre...

--

letztens hatte mal wer gefragt, warum forza 7 so gut auf den GCN chips lief und nicht bei nvidia. nunja, die scheinen halt die optimierungen von der konsole mitgenommen zu haben, dass beinhaltet dann vermutlich half precision post-processing, async compute und co. alles sachen die nvidia nicht schmecken. zusätzlich muss nvidia da halt erstmal nen treiber (scheduler) profil für haben, was nen bischen schwer ist, wenn man im vorfeld wohl nicht eingeladen war um seinen unfug in die engine zu drücken. auch amd war dort wohl nicht mit dabei, halt aber nur das personal nicht, die hardware schon.
was das ganze bestätigt ist, dass es jetzt nach dem treiber update mit neuem profil auf einmal um einiges besser läuft. amd musste da genau gar nichts machen. mich würde es aber nicht wundern, wenn beide da noch ein wenig was aus dem treiber kitzeln können, wenn sie denn wollen bzw. es als relevant ansehen.

/e
transparenz: ich warte darauf, dass nen raid controller mit dem initialisieren von nem 3 TB array fertig wird. seit 4 stunden...
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Traxer am 10.10.2017 20:13]
10.10.2017 20:12:01  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
hödyr

hödyr
 
Zitat von Traxer

/e
transparenz: ich warte darauf, dass nen raid controller mit dem initialisieren von nem 3 TB array fertig wird. seit 4 stunden...


ZFS mit stumpfen HBA ist <3.
10.10.2017 20:23:08  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Bullitt

Guerilla
Ich hab hier ein Geschenk für dich, hoffe es hilft

10.10.2017 20:23:38  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
 Thema: Hardware-Kaufberatung ( Achtung, Kompetenz! )
« erste « vorherige 1 ... 1035 1036 1037 1038 [1039] 1040 1041 1042 1043 ... 1300 nächste » letzte »

mods.de - Forum » Hardware & Netzwerk » 

Hop to:  

Mod-Aktionen:
11.06.2023 18:29:51 Atomsk hat diesen Thread wieder abgeheftet.
11.06.2023 18:29:35 Atomsk hat diesen Thread geschlossen.
01.05.2020 17:08:07 Atomsk hat diesen Thread repariert.
09.12.2018 22:26:21 Atomsk hat diesen Thread repariert.
13.07.2009 23:45:52 Atomsk hat diesen Thread wieder geöffnet.
13.07.2009 23:13:54 Atomsk hat diesen Thread geschlossen.

| tech | impressum