<html>
<body>
At 10:31 PM 11/27/2007, you wrote:<br>
<blockquote type=cite class=cite cite="">Hello,<br>
 <br>
Because today the clusters with multicore nodes are quite common and the
cores within a node share memory. <br>
 <br>
Which Implementations of MPI (no matter commercial or free), make
automatic and efficient use of shared memory for message passing within a
node. (means which MPI librarries auomatically communicate over shared
memory instead of interconnect on the same node).    <br>
 <br>
regards,<br>
Ali.<br>
_______________________________________________<br>
Beowulf mailing list, Beowulf@beowulf.org<br>
To change your subscription (digest mode or unsubscribe) visit
<a href="http://www.beowulf.org/mailman/listinfo/beowulf" eudora="autourl">
http://www.beowulf.org/mailman/listinfo/beowulf</a></blockquote><br>
The latest MPICH2 from Argonne (may be version 1.06) complied for the
ch3:nemesis shared memory device has very low latency -- as low as
0.06microseconds -- and very high bandwidth.  It beats LAM in
Argonne's tests. Here are details:
<a href="http://www.pvmmpi06.org/talks/CommProt/buntinas.pdf" eudora="autourl">
www.pvmmpi06.org/talks/CommProt/buntinas.pdf</a>,
<a href="http://info.mcs.anl.gov/pub/tech_reports/reports/P1346.pdf">
info.</a>
mcs.anl.gov<a href="http://info.mcs.anl.gov/pub/tech_reports/reports/P1346.pdf">
/pub/tech_reports/reports/P1346.pdf</a>,
<a href="ftp://ftp.mcs.anl.gov/pub/mpi/mpich2-doc-CHANGES.txt" eudora="autourl">
ftp.mcs.anl.gov/pub/mpi/mpich2-doc-CHANGES.txt</a>.  We are getting
higher latencies than that on various hardware, so obviously
YMMV.<br><br>
<br>
Mike</body>
</html>