<div dir="ltr">Looking on colfax direct, there is an 18 port QDR Mellanox switch at $3350<div>there is a single port QDR card for $522 </div><div>3 metre cables for $48</div><div><br></div><div>Total of $12470</div><div><br>

</div><div>But PAY ATTENTION to the PCIe bus type on your motherboard (I know this the hard way...)</div><div><ul style="color:rgb(51,51,51);font-family:'Trebuchet MS',Verdana,Arial,sans-serif;font-size:12px"><li style="padding-bottom:3px">

PCIe Base 3.0 compliant, 1.1 and 2.0 compatible</li></ul></div><div><br></div><div>I would say though that the above bundle could easily be re used when you get higher specification motherboards.</div><div>Or as Andrew says spend that amount on a powerfule single motherboard ssytem.</div>

<div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On 26 May 2014 13:23, John Hearns <span dir="ltr"><<a href="mailto:hearnsj@googlemail.com" target="_blank">hearnsj@googlemail.com</a>></span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Amjad,<div>I agree with what Andrew says - you can buy some very powerful single motherboard systems these days.</div>

<div><br></div><div><br></div><div>I would suggest two things though:</div><div><br></div>
<div>a) if you are planning to use this cluster for learning about MPI and cluster interconnects why not get some gigabit ethernet cards plus a gigabit switch?</div><div><br></div><div>b) Look for second hand Infiniband cards and a switch on eBay.</div>


<div>    Or look at  Colfax Direct sell  <a href="http://www.colfaxdirect.com" target="_blank">http://www.colfaxdirect.com</a></div><div><br></div><div>I saw one of these rather nifty eigght port switches from Mellanox at Cloud Expo in London:</div>


<div><br></div><div><a href="http://www.colfaxdirect.com/store/pc/viewPrd.asp?idproduct=601&idcategory=7" target="_blank">http://www.colfaxdirect.com/store/pc/viewPrd.asp?idproduct=601&idcategory=7</a><br></div><div>

<br></div><div>
Sweet!</div><div>Or even easier the twelve port version:</div><div><a href="http://www.colfaxdirect.com/store/pc/viewPrd.asp?idproduct=1819&idcategory=7" target="_blank">http://www.colfaxdirect.com/store/pc/viewPrd.asp?idproduct=1819&idcategory=7</a><br>


</div><div><br></div><div><br></div><div><br></div><div><br></div></div><div class="HOEnZb"><div class="h5"><div class="gmail_extra"><br><br><div class="gmail_quote">On 26 May 2014 12:58, Andrew Holway <span dir="ltr"><<a href="mailto:andrew.holway@gmail.com" target="_blank">andrew.holway@gmail.com</a>></span> wrote:<br>


<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi,<div><br></div><div>This cluster is now a little bit ancient. I have a feeling that, for the price of upgrading your network to Infiniband (around $10000 for QDR), you could buy a single, dual socket server that will be more powerful. The pcie bus on those systems is PCIe x8 Gen1 which would halve the speed anyway. You could *maybe* find old DDR IB on ebay or similar.</div>



<div><br></div><div>What kind of application are you running on the cluster? is it connected to any kind of storage system?</div><div><br></div><div>Thanks,</div><div><br></div><div>Andrew<br><div><br><div class="gmail_extra">



<br><br><div class="gmail_quote"><div><div>On 26 May 2014 11:50, amjad ali <span dir="ltr"><<a href="mailto:amjad11@gmail.com" target="_blank">amjad11@gmail.com</a>></span> wrote:<br></div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">


<div><div>
<div dir="ltr"><div class="gmail_quote"><div dir="ltr"><div class="gmail_quote"><div dir="ltr"><div>Dear All,</div><div><br></div><div>We have a small cluster of 16 nodes (single socket) with Intel S3210SH motherboards. Does it fully support to connect these nodes with infiniband switch and also installing the relevant iniband host adapter/interface cards?</div>






<div><br></div><div>Is it worth to add such an high speed interconnect for such a general purpose cluster?</div><div><br></div><div>If there is no support possible with infiniband then can we plan for any other high speed interconnect technology like Myrinet, Quadrics etc.</div>






<div><br></div><div>Regards,</div><div>Amjad Ali</div></div>
</div><br></div>
</div><br></div>
<br></div></div>_______________________________________________<br>
Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org" target="_blank">Beowulf@beowulf.org</a> sponsored by Penguin Computing<br>
To change your subscription (digest mode or unsubscribe) visit <a href="http://www.beowulf.org/mailman/listinfo/beowulf" target="_blank">http://www.beowulf.org/mailman/listinfo/beowulf</a><br>
<br></blockquote></div><br></div></div></div></div>
<br>_______________________________________________<br>
Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org" target="_blank">Beowulf@beowulf.org</a> sponsored by Penguin Computing<br>
To change your subscription (digest mode or unsubscribe) visit <a href="http://www.beowulf.org/mailman/listinfo/beowulf" target="_blank">http://www.beowulf.org/mailman/listinfo/beowulf</a><br>
<br></blockquote></div><br></div>
</div></div></blockquote></div><br></div>