profile-image

honzaal

0 bodů
Zbývá 100 bodů do dalšího levelu
0 100

Neevidujeme žádnou aktivitu.

Komentáře

Nejsi přihlášený(á)

Pro psaní a hodnocení komentářů se prosím přihlas ke svému účtu nebo si jej vytvoř.

Rychlé přihlášení přes:

honzaal
honzaal
Level 1 Level 1
6. 3. 2018 16:44

Komentáře tohoto uživatele máš zablokované.

@DOC_ZENITH Jasně, záleží na SW. Ale pokud je stanice určená pro CFD, tak tento kód je určitě pro paralelní úlohy optimalizován a škáluje relativně dobře. Nevidím do komerčního softu, ale v OpenFOAMu jednotlivá vlákna úlohy pevně sedí na předepsaných jádrech a využívají svůj kus paměti (řadič), jsou tam i různé upřesňující binding nastavení ale o těch toho moc nevím. Obecně pro jedno jádro/vlákno je spuštěna jedna úloha, toto vlákno řeší pořád jeden kus sítě a komunikace na procesorových hranicích sítě dělá minimální tok dat oproti vnitřku samotnému kusu.. Třeba někdo bude vědět víc a rozsekne to.
Jinak dneska už se pro fluidní mechaniku objevují nové přístupy, viz integrovaná high-bandwidth RAM (tady se ukazuje, že je to takové trochu specifické odvětví), pro zájemce: https://www.ictgmbh.net/boost-openfoam-simulation-speed-with-intel-xeon-phi/

honzaal
honzaal
Level 1 Level 1
6. 3. 2018 12:18

Komentáře tohoto uživatele máš zablokované.

Nějak nerozumím tomu, proč zrovna 8x32GB RAM. V CFD výpočtech je memory bandwidth obvykle větší bottleneck než samotné CPU a tento Epyc má 8 paměťových kanálů na procesor (nedostatkem jader na kanál navíc očividně netrpí). Logické by pro mě bylo osadit spíš 16x16GB. Použité paměti navíc nejsou 2666MHz (tuším, že dual rank Epyc zatím podporuje jen na 2400 tak možná proto), přičemž takt je tady zásadnější, než latence - data se podávají po velkých kusech. Buď má PC ještě rezervu pro budoucí upgrade RAM (která se ale hrubě podepisuje na aktuálním výkonu), nebo mi něco uniklo.

Reklama
Reklama