<div dir="ltr">Looking at this and the above link:<div><br></div><div><a href="http://www.mellanox.com/page/press_release_item?id=1501">http://www.mellanox.com/page/press_release_item?id=1501</a><br></div><div><br></div><div>It seems that the OCP Yosemite is a motherboard that allows four compute cards to be plugged into it. The compute cards can even have different CPUs (x86, ARM, Power). The Yosemite board has the NIC and connection to the switch. It is not clear if the "multi-host connection" is tunneled over the PCIe connection between the compute card and the Yosemite board or if network communication is handled over the compute card's NIC to the aggregator on the Yosemite board. Expect it is tunneled over PCIe, but more details would be nice.</div><div><br></div><div>It seems the whole OCP Yosemite project is geared towards avoiding NUMA and using cheaper, simpler CPUs.</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Mar 11, 2015 at 8:51 AM, John Hearns <span dir="ltr"><<a href="mailto:hearnsj@googlemail.com" target="_blank">hearnsj@googlemail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Talking about 10Gbps networking... and above:<div><br></div><div><a href="http://www.theregister.co.uk/2015/03/11/mellanox_adds_networking_specs_to_ocp/" target="_blank">http://www.theregister.co.uk/2015/03/11/mellanox_adds_networking_specs_to_ocp/</a><br></div><div><br></div><div><span style="color:rgb(0,0,0);font-family:Arial,FreeSans,Helvetica,sans-serif;font-size:14px;line-height:21px">"In the configuration Mellanox demonstrated, a 648-node cluster would only need 162 each of NICs, ports and cables."</span><br></div><div><span style="color:rgb(0,0,0);font-family:Arial,FreeSans,Helvetica,sans-serif;font-size:14px;line-height:21px"><br></span></div><div><span style="color:rgb(0,0,0);font-family:Arial,FreeSans,Helvetica,sans-serif;font-size:14px;line-height:21px">So looks like one switch port can fan out to four hosts, </span></div><div><span style="color:rgb(0,0,0);font-family:Arial,FreeSans,Helvetica,sans-serif;font-size:14px;line-height:21px">and they talk about mixing FPGA and GPU </span></div><div><span style="color:rgb(0,0,0);font-family:Arial,FreeSans,Helvetica,sans-serif;font-size:14px;line-height:21px">Might make for a very interesting cluster.</span></div></div>
<br>_______________________________________________<br>
Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org">Beowulf@beowulf.org</a> sponsored by Penguin Computing<br>
To change your subscription (digest mode or unsubscribe) visit <a href="http://www.beowulf.org/mailman/listinfo/beowulf" target="_blank">http://www.beowulf.org/mailman/listinfo/beowulf</a><br>
<br></blockquote></div><br></div>