Ilość RAMu vs częstotliwość

0

Mam taki zestaw:

  • 2x 32GB (4800Mhz, z możliwością overclock do 6000Mhz)
  • 2x 16GB (4000Mhz, z możliwością overclock do 5600Mhz)

Ale moja płyta pozwala overclockować tylko na dwóch slotach, pozostałe mają max 4000Mhz.

Więc się zastanawiam jaką konfigurację wybrać.

2

Cały zestaw będzie pracował prawdopodbnie na 4k MHZ, bo płyta wymusi synchronizację.

Jaka konkretnie płyta, RAM i cpu?

Osobiście pewnie wybrałbym te 96GB, z uwagi na to, że sporo korzystam z virtualboxa.

5

Pytanie czy przy overclocku trzyma Ci timingi, bo może być tak, że masz dużo wyższą czestotliwość, a szybkość wzrasta minimalnie.
Zrób jakiś benchmark cpu+ram na te 6ghz i oceń czy warto.
Btw. u mnie ilość ram jest ważniejsza niż np. 10% szybkošci, ale to ze wzgledu na vmki.

0

Tyle, że częstotliwość na wszystkich ramach będzie taka sama, bo jest to jeden zegar, więc prawdopodobnie oc możesz robić tylko jeśli masz 2 kości, jak masz 4 to już oc nie zrobisz.

3
  1. Jak ostatnio widziałem benchmarki, to powyżej, powiedzmy, 3500 MHz przyrost wydajności był naprawdę minimalny — kilka procent w porównaniu z 3500 MHz, nawet przy 6000 MHz. Warto poszukać nowszych benchmarków, żeby się przekonać, czy dalej tak jest.
  2. Posiadanie różnych kości przy czterech kościach to proszenie się o problemy. Niemal na pewno stracisz dual channel (więc sporo wydajności), możesz mieć problemy ze stabilnością. Przy dwóch kościach już tak źle nie jest, nawiasem mówiąc — dopiero cztery (i więcej) stwarzają problemy.

Tak więc ja bym zdecydowanie brał ten pierwszy zestaw.

1

Moim zdaniem nie warto choćby z tego powodu, że nawet 24-godzinne testy nie dadzą gwarancji stabilności. Możesz puszczać memtesta, OCCT w różnych konfiguracjach (czy czego się teraz używa) i tak dalej, a złapiesz BSOD-a po miesiącu przy niewielkim obciążeniu.

Dla mnie jedyny sens kręcenia w kompie wykorzystywanym do pracy jest wtedy, gdy możesz bez szczególnych ceregieli wykręcić, powiedzmy +40%, a potrzeba ci tylko, dajmy na to, +10%, żeby osiągnąć stałe 60 kl./s w jakiejś grze albo płynny obraz w Ultra HD na Netfliksie Premium.

0

@leoninus: tu akurat przesadzasz. to o czym mówisz to może się stać tylko jak źle zrobisz oc i dojdziesz do skraju wytrzymałości elektroniki przez co po tym twoim miesiącu dojdzie do zdegradowania na tyle, że na tych wartościach przestanie być stabilny.

0
ehhhhh napisał(a):

@leoninus: tu akurat przesadzasz. to o czym mówisz to może się stać tylko jak źle zrobisz oc i dojdziesz do skraju wytrzymałości elektroniki przez co po tym twoim miesiącu dojdzie do zdegradowania na tyle, że na tych wartościach przestanie być stabilny.

Nie pisałem przecież, że tak się stanie, ale że żadne testy nie dają gwarancji. Byłem, widziałem - i nie tylko ja. Całodobowe testy zakończone sukcesem, temperatura w normie, napięcie zasilające niezmienione, zwiecha co kilka, kilkanaście tygodni, a bez podkręcania - przez lata żadnej. Zdarzyło mi się tak już na trzech konfiguracjach (tzn. jedna pracowała z fabrycznym vcore, a dwie pozostałe z lekko podniesionym). Oczywiście, można podnieść napięcia bardziej, niż sugerują testy stabilności, ale to znowu może powodować inne problemy, no i pytanie, czy chcesz się przekonać co do stabilności na kompie do pracy. Moim zdaniem utrata kilku godzin pracy albo ekwipunku w takiej grze jak "Escape from Tarkov" nie jest warta niewielkiego wzrostu wydajności, jeśli tylko rozgrywka przed podkręceniem jest płynna).

Warto to było mimo bardzo rzadkich niestabilności podkręcić mój egzemplarz Core 2 Duo E4300, który bez zmiany vcore udało mi się przyspieszyć z 1,8 GHz do 3,0 GHz albo 3,2 GHz, a po umiarkowanym podniesieniu - do 3,6 GHz (dalej nie sprawdzałem ze względu na pamięć 800 MHz). Core 2 Quad Q9550, którego używam do pracy, też testowałem pod tym kątem, ale 27% (2,83 -> 3,6 GHz, maks. 3,8 GHz) przy wciąż rozsądnym vcore to jednak było dla mnie za mało.

0

@leoninus: bo źle to robisz. Powinno się testować na max jakim się tylko da a po testach lekko zejść z wartościami robiąc bufor.

0
ehhhhh napisał(a):

@leoninus: bo źle to robisz. Powinno się testować na max jakim się tylko da a po testach lekko zejść z wartościami robiąc bufor.

Właśnie tak robiłem:

(2,83 -> 3,6 GHz, maks. 3,8 GHz)

Tamtego e4300 po pierwszym BSOD-zie (po długim czasie) też nie używałem na 3,6 GHz, tylko na 3,0 albo 3,2 GHz, a i tak zdarzały się zwiechy co kilka albo kilkanaście tygodni.

Zazwyczaj za dużo rzeczy może powodować niestabilność, choćby CPU, pamięć, FSB, NB. Testując Q9550, majstrowałem przy czterech napięciach i paru innych parametrach.

0

@leoninus: to dziwne, nie spotkałem się z takimi problemami

0
ehhhhh napisał(a):

@leoninus: to dziwne, nie spotkałem się z takimi problemami

Być może to zależy od rodzaju obciążenia. Mnie te niestabilności CPU/MB/RAM raz na kilka tygodni czy miesięcy pojawiały się wyłącznie podczas edycji skomplikowanych dokumentów Worda. Dziesiątki stron z dużą liczbą skonfigurowanych stylów znakowych oraz dziesiątkami, a nawet setkami przypisów i/albo odnośników z aktywnym hiperłączem, do tego komentarzami różnych osób i 1-2 warstwami rejestrowanych poprawek. (W skrajnych przypadkach zwykłe pisanie wiązało się z wyraźnym lagiem).

Testy symulują skoki obciążenia i różne scenariusze zapisywania danych do pamięci oraz ich odczytywania, ale najwyraźniej niewystarczająco. Druga kwestia: czy 10-, a nawet 20-procentowe przyspieszenie jest warte jakiegokolwiek ryzyka utraty czegokolwiek i czasu poświęconego na eksperymenty, a tym bardziej zwiększonej głośności, o ile nie osiągamy jakiegoś progu płynności albo wyraźnego wzrostu dochodów?

0

zakladanie wiecej niz 2 kosci nie ma sensu

1

@krzychu82a: ojjj ma sens, obecnie w jednej kości max to 32GB a 64GB to do niektórych prac za mało.

0

Ale daj więcej info, jakie to konkretnie kości, jaka płyta, no i przede wszystkim jaki zasilacz. Bez konkretnych danych, to sobie można zgadywać.

4

Ze speca pamięci:

https://www.kingston.com/datasheets/KF556C36BBEAK2-32.pdf (1Rx8 -> single rank)
https://www.kingston.com/datasheets/KF560C36BBEK2-64.pdf (2Rx8 -> dual rank)

Ze speca płyty: https://download.msi.com/archive/mnu_exe/mb/PROZ690-AWIFIDDR4_PROZ690-ADDR4100x150.pdf

Max overclocking frequency:
▪ 1DPC 1R Max speed up to 5200+ MHz
▪ 1DPC 2R Max speed up to 4800+ MHz
▪ 2DPC 1R Max speed up to 4400+ MHz
▪ 2DPC 2R Max speed up to 4000+ MHz

Po mojemu:

  • płyta jest wąskim gardłem do OC dla tych modułów
  • jak zapakujesz 4 moduły, to będziesz miał scenariusz 2DPC, a że kości masz 1R i 2R, to zgaduję, że ten OC skończy się na 4000+ MHZ

Zakładając częstotliwość 4k, to teoretyczna przepustowość 4k * 2 *8 / 1024 -> 62Gb/s (i to x2 przez dual channel) -> 124GB/s.

Ile Twój CPU jest w stanie wykorzystać tej przepustowości? (Powinno być w specu CPU).

2

@Riddle: z I7 widzę max. 89.6 GB/s, powyżej mają chyba tylko niektóre Xenony (90+GB/s). Pytanie czy będzie jakaś zauważalna różnica między 76.8 GB/s i 89.6GB/s. W praktyce musiałbyś non-stop po pamięci jeździć. A czy tak będzie, to zależy od tego jakie obciążenia będziesz generował.

I9: https://www.intel.com/content/www/us/en/products/compare.html?productIds=232167,230498,230499,230502,230496,230497,225916,134601,134597,134598,134599,134600,212254,212256,212321,212325,212252,205904,199331,199332,199324,199328,199329

Desktopy I9:
Intel® Core™ i9-13900KF Processor
Intel® Core™ i9-13900T Processor
Intel® Core™ i9-13900 Processor
Intel® Core™ i9-13900F Processor
Intel® Core™ i9-13900KS Processor

I7:
Intel® Core™ i7-13700KF Processor
Intel® Core™ i7-13700 Processor
Intel® Core™ i7-13700F Processor
Intel® Core™ i7-13700T Processor
Intel® Core™ i7-13700K Processor
Intel® Core™ i7-13700TE Processor
Intel® Core™ i7-13850HX Processor
Intel® Core™ i7-13700E Processor

(dla i7 nie brałem filtra po desktopie, więc niektóre mogą być pod zastosowania mobilne)

Ogólnie: https://www.intel.com/content/www/us/en/products/details/processors/core/i7/products.html i tam możesz sobie wygenerować porównanie w excelu.

1

zagłosowąłem, że bym wybrał ram ale teraz stwierdzam, że kupił bym sobie 32 + 32 i potem dokupił w przyszłości kolejne 32 + 32..
Overclocka bym nie włączał. Pzdr.

0

Jak masz te części już u siebie to po prostu wypróbuj te dwie konfiguracje i zrób benchmark. Najlepiej potestuj to na zadaniach które robisz na codzień, osobiście myślę że więcej niż 32GB RAMu nie ma sensu i nie daje żadnych korzyści chyba że masz dużo wirtualek. Gdybym miał mieć dużo wirtualek to osobiście i tak postawiłbym osobny serwer na nie żeby mi nie lagowały procka.

0
somekind napisał(a):

Zasilacz be-quiet? Nic dziwnego, że nie działa.
Kup coś nie z czarnej listy.

Co polecasz?

0

@Riddle: przecież @somekind sobie jaja robi. @ccwrc bequite kupuje projekt od seasonica i robi w nim drobne zmiany głównie jeśli chodzi o chłodzenie, to samo robi corsair, endorfy i wielu innych producentów.

0
Riddle napisał(a):
somekind napisał(a):

Zasilacz be-quiet? Nic dziwnego, że nie działa.
Kup coś nie z czarnej listy.

Co polecasz?

Mam ToPower U12. Działa stabilnie, cichy i wydajny. Występuje w wielu wariantach mocy.

1 użytkowników online, w tym zalogowanych: 0, gości: 1