Sannis писал(а):
Так что если вам нужен кластер на полгода работы в рабочее время, можно не обращать внимание на это и учитывать пиковую производительность купленного.
Один из подобных узлов уже работает где-то примерно год без перебоев с нагрузкой где-то 80%. Поставщик дает гарантию на 3 года на все комплектующие так что минимум пару лет кластер должен поработать а потом узлы пойдут на десктопы для студентов.
Sannis писал(а):
Кстати, есть полезная книжка от создателей этого сервера, ныне администраторов СКИФ-МГУ: Воеводин Вл.В., Жуматий С.А. Вычислительное дело и кластерные системы.
Книжка замечательная, изучил уже почти всю.
Sannis писал(а):
Не нужно забывать, что нужно ещё потратиться на серверную/стойку, охлаждение.
Охлаждение в помещение где будут стоять узлы есть - кондер + фильтр, а насчет стойки планирую взять железные полки как на картинке.

Sannis писал(а):
Если сервер приобретается под конкретный алгоритм, то именно от него следует плясать. Посайзить немножко на разном количестве узлов. Если ваша реализация чувствительна к пропускной способности/латентности сети, то согласно закону Амдала, прирост в узлах может не дать никакого преимущества.
Алгоритм протестирован на малом количестве узлов, прирост производительности есть даже на 100Мбит Enternet, так что 1Gig Enternet это конечно не InfiniBand но пока хватит.
Sannis писал(а):
Память какую считали? При количестве большем чем четыре гигабайта крайне рекомендуется ставить, как минимум, ECC память, а лучше ECC REG. Собственно, и платформы должны ее поддерживать.
Память считал как 8гиг на один четырех-ядерный процессор - то-есть 2 гиг на ядро. Память ЕЦЦ.
Sannis писал(а):
Возможно, что при условиях очень сильных требованиях задачи к интерконнекту имеет смысл купить просто один четырех-процессорный сервер с 32/64 гигабайтами памяти.
Разумеется, но выходит гораздо дороже.