<br><font size=2 face="sans-serif">Dear Beowulf ML,</font>
<br>
<br><font size=2 face="sans-serif">Here is an interesting discussion on
the methods and metrics that could apply to multicore chips and clusters.
</font>
<br>
<br><font size=2 face="sans-serif">I have not seen this discussed on the
list, so it may be new to some.</font>
<br>
<br><font size=2 face="sans-serif">Here is the link to the overview wiki</font>
<br><font size=2 face="sans-serif">http://view.eecs.berkeley.edu/wiki/Main_Page</font>
<br>
<br><font size=2 face="sans-serif">And motivation for people to go to the
link: quote from the wiki</font>
<p><font size=2>"We believe that much can be learned by examining
the success of parallelism at the extremes of the computing spectrum, namely
embedded computing and high performance computing. This led us to frame
the parallel landscape with seven question under the following assumptions:
</font>
<ul type=square>
<li><font size=2>The target should be 1000s of cores per chip, as this
hardware is the most efficient in MIPS per watt, MIPS per area of silicon,
and MIPS per development dollar. </font>
<li><font size=2>Instead of traditional benchmarks, use 7+ “</font><a href=http://view.eecs.berkeley.edu/wiki/Dwarfs><font size=2>dwarfs</font></a><font size=2>”
to design and evaluate parallel programming models and architectures. (A
dwarf is an algorithmic method that captures a pattern of computation and
communication.) </font>
<li><font size=2>“Autotuners” should play a larger role than conventional
compilers in translating parallel programs. </font>
<li><font size=2>To maximize programmer productivity, programming models
should be independent of the number of processors. </font>
<li><font size=2>To maximize application efficiency, programming models
should support a wide range of data types and successful models of parallelism:
data-level parallelism, independent task parallelism, and instruction-level
parallelism. "</font></ul>
<br>
<br><font size=2 face="sans-serif">And the detailed white paper that  started
his (Dec 2006)  http://www.eecs.berkeley.edu/Pubs/TechRpts/2006/EECS-2006-183.html</font>
<br>
<br><font size=2 face="sans-serif">The "Seven Questions" discuss
approaches to what seem to be standard discussions on cluster, parallel
programming and best practices.  Lots of fun for everyone! </font>
<br>
<br><font size=2 face="sans-serif">Applications </font>
<br>
<br><font size=2 face="sans-serif">1. What are the applications? </font>
<br><font size=2 face="sans-serif">2. What are common kernels of the applications?
</font>
<br>
<br><font size=2 face="sans-serif">Architecture and Hardware </font>
<br>
<br><font size=2 face="sans-serif">3. What are the HW building blocks?
</font>
<br><font size=2 face="sans-serif">4. How to connect them? </font>
<br>
<br><font size=2 face="sans-serif">Programming Model and Systems Software
</font>
<br>
<br><font size=2 face="sans-serif">5. How to describe applications and
kernels? </font>
<br><font size=2 face="sans-serif">6. How to program the hardware? </font>
<br>
<br><font size=2 face="sans-serif">Evaluation </font>
<br>
<br><font size=2 face="sans-serif">7. How to measure success? </font>
<br>
<br><font size=2 face="sans-serif">------<br>
Sincerely,<br>
<br>
   Tom Pierce<br>
    </font>