Hi all.<br><br>First of all, thanks a lot for all the answers. They clarified this subject to me.<br><br>Anyway, since this seems to be a good (AND cheap) solution in many cases, I decided to ask a bit more in detail:<br><br>

While looking for the motherboards for our 8-12 dual-core-nodes cluster, already with the idea of using on-board dual-Gb ethernets on it, we came across the MSI K9N Ultra and bigger ones family. In this family, there is the MSI K9N Platinum (
<a href="http://www.msi.com.tw/program/products/mainboard/mbd/pro_mbd_detail.php?UID=730" target="_blank" onclick="return top.js.OpenExtLink(window,event,this)">http://www.msi.com.tw/program/products/mainboard/mbd/pro_mbd_detail.php?UID=730
</a>), which is appearing around here at a really affordable price (a bit more than 2 hundred dollars each here).
<br><br>This motherboard uses the nForce 570 MCP chipset from NVidia, and the dual lan bythe Vitesse VSC8601.<br><br>Here is where our concerns now are held: Basically, is this a good dual Gb lan, good in terms of clustering applications? Has anybody ever used it before, or heard about someone using? Or shall we step back about this specific chip/motherboard?
<br><br>Any help on this subject will be very welcome.<br><br>Thanks a lot,<br><br>Jones<br><br><div><span class="gmail_quote">On 11/14/06, <b class="gmail_sendername">Robin Harker</b> <<a href="mailto:robin@workstationsuk.co.uk" target="_blank" onclick="return top.js.OpenExtLink(window,event,this)">

robin@workstationsuk.co.uk</a>> wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">ON-board NICS are as good as PCI, so as long as they are Intel or Broadcom
<br>don't even think about not using them. AS far as switches are concerned,<br>ignore all layer 3 devices, as you will never use the functionality and go<br>for a cheap as chips layer 2, (non-blocking) from a manufacturer you have
<br>heard off, eg:  HP, D-Link, SMC or Netgear.  If you plan to expand beyong 24<br>or 48 ports, most now do switches with 10GigE uplinks.<br><br>Regards<br><br>R<br><br>Robin Harker<br><a href="http://www.terrascale.com" target="_blank" onclick="return top.js.OpenExtLink(window,event,this)">

www.terrascale.com</a><br>Tel: 01494 724498<br>Cell: 07802 517059<br>TerraGrid - High Performance Storage - One Brick at a Time<br><br><br><br>-----Original Message-----<br>From: <a href="mailto:beowulf-bounces@beowulf.org" target="_blank" onclick="return top.js.OpenExtLink(window,event,this)">

beowulf-bounces@beowulf.org</a> [mailto:<a href="mailto:beowulf-bounces@beowulf.org" target="_blank" onclick="return top.js.OpenExtLink(window,event,this)">beowulf-bounces@beowulf.org</a>] On<br>Behalf Of Jones de Andrade
<br>Sent: 14 November 2006 13:26<br>To: <a href="mailto:beowulf@beowulf.org" target="_blank" onclick="return top.js.OpenExtLink(window,event,this)">
beowulf@beowulf.org</a><br>Subject: [Beowulf] onboard Gb lan: any opinion, sugestion or impression?<br><br>Hi all.<br><br>Well, I've found some discussions within this list about brands of switches,<br>and some about network card brands also.
<br><br>We came to a question here, in the cluster we are planning: how usefull are<br>the, now so common, onboard gigabit networks (even dual networks) that are<br>shipped in the motherboards? Great, bood, bad or terrible performance?
<br>stability issues? Much concern about it's use for clusters? Is there any<br>example, or benchmark available of different onboard network chips in any<br>(cluster?) application?<br><br>Thanks a lot in advance,<br><br>
Sincerally yours,
<br><br>Jones<br>_______________________________________________<br>Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org" target="_blank" onclick="return top.js.OpenExtLink(window,event,this)">Beowulf@beowulf.org</a>
<br>To change your subscription (digest mode or unsubscribe) visit<br><a href="http://www.beowulf.org/mailman/listinfo/beowulf" target="_blank" onclick="return top.js.OpenExtLink(window,event,this)">
http://www.beowulf.org/mailman/listinfo/beowulf</a><br><br></blockquote></div><br>