are the slides of this presentation available?<br><br><div class="gmail_quote">2009/2/9 Dow Hurst DPHURST <span dir="ltr"><<a href="mailto:DPHURST@uncg.edu">DPHURST@uncg.edu</a>></span><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<font face="Default Sans Serif,Verdana,Arial,Helvetica,sans-serif" size="2"><div>Has anyone tested scaling of NAMD/CUDA over QLogic or ConnectX QDR interconnects for a large number of IB cards and GPUs?  I've listened to John Stone's presentation on VMD and NAMD CUDA acceleration.  The consensus I brought away from the presentation was that one QDR per GPU would probably be necessary to scale efficiently.  The 60 node, 60 GPU, DDR IB enabled cluster that was used for initial testing was saturating the interconnect.  Later tests on the new GT200 based cards show even more performance gains for the GPUs.  1 GPU performing the work of 12 CPUs or 8 CPUs equaling 96 cores were the numbers I saw.  So with a ratio of 1gpu/12cores, interconnect performance will be very important.<br>
Thanks,<br>Dow<br><div>__________________________________<br>Dow P. Hurst, Research Scientist<br>Department of Chemistry and Biochemistry<br>University of North Carolina at Greensboro<br></div></div></font><br>_______________________________________________<br>

Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org">Beowulf@beowulf.org</a><br>
To change your subscription (digest mode or unsubscribe) visit <a href="http://www.beowulf.org/mailman/listinfo/beowulf" target="_blank">http://www.beowulf.org/mailman/listinfo/beowulf</a><br>
<br></blockquote></div><br>