<div dir="ltr"><div><div><div>Hi Jeff,<br><br></div>There's a survey on small HPC center management every year, as well as a BoF at Supercomputing. It might be worth checking out the yearly survey results at <a href="https://sites.google.com/site/smallhpc/">https://sites.google.com/site/smallhpc/</a><br><br></div>Cheers,<br></div>Adam<br><br></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Mar 7, 2016 at 9:43 PM, Jeff Friedman <span dir="ltr"><<a href="mailto:jeff.friedman@siliconmechanics.com" target="_blank">jeff.friedman@siliconmechanics.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div style="word-wrap:break-word">Hello all. I am just entering the HPC Sales Engineering role, and would like to focus my learning on the most relevant stuff. I have searched near and far for a current survey of some sort listing the top used “stacks”, but cannot seem to find one that is free. I was breaking things down similar to this:<div><br></div><div><u>OS disto</u>:  CentOS, Debian, TOSS, etc?  I know some come trimmed down, and also include specific HPC libraries, like CNL, CNK, INK?  </div><div><br></div><div><u>MPI options</u>: MPICH2, MVAPICH2, Open MPI, Intel MPI, ? </div><div><br></div><div><u>Provisioning software</u>: Cobbler, Warewulf, xCAT, Openstack, Platform HPC, ?</div><div><br></div><div><u>Configuration management</u>: Warewulf, Puppet, Chef, Ansible, ? </div><div><br></div><div><u>Resource and job schedulers</u>: I think these are basically the same thing? Torque, Lava, Maui, Moab, SLURM, Grid Engine, Son of Grid Engine, Univa, Platform LSF, etc… others?</div><div><br></div><div><u>Shared filesystems</u>: NFS, pNFS, Lustre, GPFS, PVFS2, GlusterFS, ? </div><div><br></div><div><u>Library management</u>: Lmod, ? </div><div><br></div><div><u>Performance monitoring</u>: Ganglia, Nagios, ?</div><div><br></div><div><u>Cluster management toolkits</u>: I believe these perform many of the functions above, all wrapped up in one tool?  Rocks, Oscar, Scyld, Bright, ?</div><div><br></div><div><br></div><div>Does anyone have any observations as to which of the above are the most common?  Or is that too broad?  I  believe most the clusters I will be involved with will be in the 128 - 2000 core range, all on commodity hardware. </div><div><br></div><div>Thank you!</div><span class="HOEnZb"><font color="#888888"><div><br></div><div>- Jeff</div><div><br></div><div><br></div><div><br></div><div><br></div></font></span></div><br>_______________________________________________<br>
Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org">Beowulf@beowulf.org</a> sponsored by Penguin Computing<br>
To change your subscription (digest mode or unsubscribe) visit <a href="http://www.beowulf.org/mailman/listinfo/beowulf" rel="noreferrer" target="_blank">http://www.beowulf.org/mailman/listinfo/beowulf</a><br>
<br></blockquote></div><br></div>