<div dir="ltr">In addition to storage, if you use GPUs for compute, the single socket is compelling. If you rely on the GPUs for the parallel processing, then the CPUs are just for serial acceleration and handling I/O. A single socket with 32 cores and 128 lanes of PCIe can handle up to eight GPUs with four CPU cores per GPU. This would be a very dense solution and could be attractive for data centers as well as HPC.</div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Jun 21, 2017 at 12:39 PM, Kilian Cavalotti <span dir="ltr"><<a href="mailto:kilian.cavalotti.work@gmail.com" target="_blank">kilian.cavalotti.work@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On Wed, Jun 21, 2017 at 5:39 AM, John Hearns <<a href="mailto:hearnsj@googlemail.com">hearnsj@googlemail.com</a>> wrote:<br>
> For a long time the 'sweet spot' for HPC has been the dual socket Xeons.<br>
<br>
</span>True, but why? I guess because there wasn't many other options, and in<br>
the first days of multicore CPUs, it was the only way to have decent<br>
local parallelism, even with QPI (and its ancestors) being a<br>
bottleneck. And also to have enough PCIe lanes (40 lanes ought to<br>
enough for anyone, right?)<br>
<br>
But now, with 20+ core CPUs, does it still really make sense to have<br>
dual socket systems everywhere, with NUMA effects all over the place<br>
that typical users are blissfully unaware of?<br>
<br>
Seems to me like this is a smart design move from AMD, and that<br>
single-socket systems, with 20+ core CPUs and 128 PCIe lanes could<br>
make a very cool base for many HPC systems. Of course, that's just on<br>
paper for now, proper benchmarking will be required.<br>
<br>
Cheers,<br>
<span class="HOEnZb"><font color="#888888">--<br>
Kilian<br>
</font></span><div class="HOEnZb"><div class="h5">______________________________<wbr>_________________<br>
Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org">Beowulf@beowulf.org</a> sponsored by Penguin Computing<br>
To change your subscription (digest mode or unsubscribe) visit <a href="http://www.beowulf.org/mailman/listinfo/beowulf" rel="noreferrer" target="_blank">http://www.beowulf.org/<wbr>mailman/listinfo/beowulf</a><br>
</div></div></blockquote></div><br></div>