<div dir="ltr"><div>Echoing what Joe says, "The Network is the Computer" - now who said that (hmmmm....)</div><div>We know this anyway - more attention is being paid to bandwidth to memory, and memory access patterns rather than hero numbers with core counts.</div><div>Perhaps I'm replaying a long running LP record, but going back to working on CFD we had an SGI Itanium with single cores.</div><div>That server ran from day one till the knackers turned up to take it away to the farm (aka SGI engineers with a taillift truck).</div><div>I literally had to stop user jobs to give them the chance to switch it off. Mind you that thing ate power....</div><div><br></div><div>Perhaps its a good time to be in HPC.  Do we see two camps forming - Intel with their integrated onto the package Omnipath and Xeon Phi,</div><div>with AMD / Mellanox in the other corner.  Of course the other two corners of the ring have ARM and Power.</div><div>and who said rings have to be four sided?  Being in HPC we would of course have a hyper-ring....</div><div><br></div><div><br></div><div><br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On 22 June 2017 at 15:31, Scott Atchley <span dir="ltr"><<a href="mailto:e.scott.atchley@gmail.com" target="_blank">e.scott.atchley@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi Mark,<div><br></div><div>I agree that these are slightly noticeable but they are far less than accessing a NIC on the "wrong" socket, etc.</div><span class="HOEnZb"><font color="#888888"><div><br></div><div>Scott</div></font></span></div><div class="HOEnZb"><div class="h5"><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Jun 22, 2017 at 9:26 AM, Mark Hahn <span dir="ltr"><<a href="mailto:hahn@mcmaster.ca" target="_blank">hahn@mcmaster.ca</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;padding-left:1ex;border-left-color:rgb(204,204,204);border-left-width:1px;border-left-style:solid"><span><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;padding-left:1ex;border-left-color:rgb(204,204,204);border-left-width:1px;border-left-style:solid">
But now, with 20+ core CPUs, does it still really make sense to have<br>
dual socket systems everywhere, with NUMA effects all over the place<br>
that typical users are blissfully unaware of?<br>
</blockquote>
<br></span>
I claim single-socket systems already have NUMA effects, since multiple<br>
layers (differently-shared) of cache have the same effect as memory at different hop-distances.<br>
<br>
regards, mark hahn.<div class="m_-3832402552782989044HOEnZb"><div class="m_-3832402552782989044h5"><br>
______________________________<wbr>_________________<br>
Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org" target="_blank">Beowulf@beowulf.org</a> sponsored by Penguin Computing<br>
To change your subscription (digest mode or unsubscribe) visit <a href="http://www.beowulf.org/mailman/listinfo/beowulf" target="_blank" rel="noreferrer">http://www.beowulf.org/mailman<wbr>/listinfo/beowulf</a><br>
</div></div></blockquote></div><br></div>
</div></div><br>______________________________<wbr>_________________<br>
Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org">Beowulf@beowulf.org</a> sponsored by Penguin Computing<br>
To change your subscription (digest mode or unsubscribe) visit <a href="http://www.beowulf.org/mailman/listinfo/beowulf" target="_blank" rel="noreferrer">http://www.beowulf.org/<wbr>mailman/listinfo/beowulf</a><br>
<br></blockquote></div><br></div>