Hi, <br style="color: rgb(0, 0, 0);"><span style="color: rgb(0, 0, 0);">while looking for high density (fat) </span><font style="color: rgb(0, 0, 0);" size="2">nodes; one should keep in mind that more number of cores striving simultaneously to access memory, cause memory contention. </font><font style="color: rgb(0, 0, 0);" size="2">Infact today CPU cores are fast and scalable but not the memory bandwidth. Experts say that buying a CPU is infact buying "bandwidth" not the "speed".<br>
<br></font><font style="color: rgb(204, 0, 0);" size="4"><font style="color: rgb(0, 0, 0);" size="2">Intel's specialty is QPI
(quick path interconnect) --- removed Front Side Bus (FSB), in Nehalem
CPUs, as an effort to over come the bottleneck of memory bandwidth.
This bottleneck arises when more number of cpu cores, each performing
floating point oprations in HPC applications, strive to get access to
main memory simultaneously. Also Intel introduced QPI to
compete with the AMD's speciality Direct Connect Architecture (DCA) in
its latest CPUs.<br><br>Nehalem Xeon 55xx are "server" class while Nehalem Core i7/i9 are "desktop" class cpus.<br><br>In server processors<br></font></font>Today in Servers latest (Nehalem) Quad core Xeon 55xx (DP/ for dual
socket boards) and Xeon 35xx ( UP/ for single socket boards) are alive.
<br>Today in Servers Quad core Xeon 54xx (DP/ for dual socket boards) are not so good. <br>
And Xeon 53xx (DP/ for dual socket boards) are virtually dead.<br>And Xeon 33xx/32xx ( UP/ for single socket boards) are not so good.<br><br>Today in Servers latest Quad core and Six Core Opteron 83xx and 84xx (Shanghai -- 3rd generation) are alive.<br>


Today in Servers Opterons 13xx/23xx/24xx (Budapest/Barcelona --- 2nd generation) are
not so good.<br><br>There price differences reflect these 'facts'.<br><br><font style="color: rgb(204, 0, 0);" size="4"></font><br><div class="gmail_quote">On Tue, Nov 24, 2009 at 10:41 PM, Jon Forrest <span dir="ltr"><<a href="mailto:jlforrest@berkeley.edu">jlforrest@berkeley.edu</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div class="im">Ralph Mason wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
We have been building a development cluster using consumer core i7 processors with 12gb of ram each and a ide cf boot disk on a motherboard with embedded everything.  This is very cost effective as it uses consumer processors and the cheapest ram (ram prices skyrocket once you go higher than 2gb modules).  <br>

Does anyone know of any commercial offering that can pack these nodes into a high density rack or offer a similar price performance curve for the given ram and processing power?  <br>
</blockquote>
<br></div>
I've recently used Finetec (<a href="http://www.finetec.com" target="_blank">www.finetec.com</a>) to put together<br>
a cluster based on the dual-motherboard Supermicro cases.<br>
Since each motherboard can hold 2 processors, and each AMD<br>
Istanbul processor has 6-cores, I can get 24 cores per rack<br>
unit. That's pretty dense.<br>
<br>
I believe that SuperMicro also makes similar motherboards<br>
for Intel processors.<br>
<br>
Check it out!<br>
<br>
Cordially,<br>
-- <br>
Jon Forrest<br>
Research Computing Support<br>
College of Chemistry<br>
173 Tan Hall<br>
University of California Berkeley<br>
Berkeley, CA<br>
94720-1460<br>
510-643-1032<br>
<a href="mailto:jlforrest@berkeley.edu" target="_blank">jlforrest@berkeley.edu</a><br>
<br>
_______________________________________________<br>
Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org" target="_blank">Beowulf@beowulf.org</a> sponsored by Penguin Computing<br>
To change your subscription (digest mode or unsubscribe) visit <a href="http://www.beowulf.org/mailman/listinfo/beowulf" target="_blank">http://www.beowulf.org/mailman/listinfo/beowulf</a><br>
</blockquote></div><br>