It would be nice to have non-blocking communication within the entire
system but the critical part is the 36-node complex to be connected to
the main cluster.<br><br><div class="gmail_quote">On Mon, Feb 9, 2009 at 1:33 AM, Gilad Shainer <span dir="ltr"><<a href="mailto:Shainer@mellanox.com">Shainer@mellanox.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">




<div>
<div><span><font color="#0000ff" size="2" face="Arial">Do you 
plan to have full not blocking communications between the next systems and the 
core switch?</font></span></div><br>
<div dir="ltr" align="left" lang="en-us">
<hr>
<font size="2" face="Tahoma"><b>From:</b> <a href="mailto:beowulf-bounces@beowulf.org" target="_blank">beowulf-bounces@beowulf.org</a> 
[mailto:<a href="mailto:beowulf-bounces@beowulf.org" target="_blank">beowulf-bounces@beowulf.org</a>] <b>On Behalf Of </b>Ivan 
Oleynik<br><b>Sent:</b> Sunday, February 08, 2009 8:20 PM<br><b>To:</b> 
<a href="mailto:beowulf@beowulf.org" target="_blank">beowulf@beowulf.org</a><br><b>Subject:</b> [Beowulf] Connecting two 24-port IB edge 
switches to core switch:extra switch hop overhead<br></font><br></div>
<div></div>I am purchasing 36-node cluster that will be integrated to already 
existing system. I am exploring the possibility to use two <span>24 4X port IB 
edge switches in core/leaf design that have maximum capability of 960Gb 
(DDR)/480Gb (SDR). They </span>would be connected to the main Qlogic Silverstorm 
switch.<br><br>I would appreciate receiving some info regarding the 
communication overhead incurred by this setup. I am trying to minimize the cost 
of IB communication hardware. It looks like buying single 48-port switch is 
really an expensive option. <br><br>Thanks,<br><br>Ivan<br></div>
</blockquote></div><br>