<html>
  <head>
    <meta content="text/html; charset=windows-1252"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <br>
    <br>
    <div class="moz-cite-prefix">On 08/03/16 05:43, Jeff Friedman wrote:<br>
    </div>
    <blockquote
      cite="mid:2D1D1F4D-9B47-48FD-AFF6-CFF4AA097FF4@siliconmechanics.com"
      type="cite">
      <meta http-equiv="Content-Type" content="text/html;
        charset=windows-1252">
      Hello all. I am just entering the HPC Sales Engineering role, and
      would like to focus my learning on the most relevant stuff. I have
      searched near and far for a current survey of some sort listing
      the top used “stacks”, but cannot seem to find one that is free.</blockquote>
    <br>
    <a class="moz-txt-link-freetext" href="https://sites.google.com/site/smallhpc/home">https://sites.google.com/site/smallhpc/home</a>, see "Files &
    Documents" section<br>
    <br>
    <blockquote
      cite="mid:2D1D1F4D-9B47-48FD-AFF6-CFF4AA097FF4@siliconmechanics.com"
      type="cite"> I was breaking things down similar to this:
      <div class=""><br class="">
      </div>
      <div class=""><u class="">OS disto</u>:  CentOS, Debian, TOSS,
        etc?  I know some come trimmed down, and also include specific
        HPC libraries, like CNL, CNK, INK?  </div>
      <div class=""><br class="">
      </div>
      <div class=""><u class="">MPI options</u>: MPICH2, MVAPICH2, Open
        MPI, Intel MPI, ? </div>
      <div class=""><br class="">
      </div>
      <div class=""><u class="">Provisioning software</u>: Cobbler,
        Warewulf, xCAT, Openstack, Platform HPC, ?</div>
      <div class=""><br class="">
      </div>
      <div class=""><u class="">Configuration management</u>: Warewulf,
        Puppet, Chef, Ansible, ? <br>
      </div>
    </blockquote>
    <br>
    xCAT<br>
    <br>
    Some sites (incl. the one I'm at) use Quattor
    (<a class="moz-txt-link-freetext" href="http://www.quattor.org/">http://www.quattor.org/</a>)<br>
    <blockquote
      cite="mid:2D1D1F4D-9B47-48FD-AFF6-CFF4AA097FF4@siliconmechanics.com"
      type="cite">
      <div class=""><br class="">
      </div>
      <div class=""><u class="">Resource and job schedulers</u>: I think
        these are basically the same thing?</div>
    </blockquote>
    <br>
    Not really, although there's some overlap.<br>
    <br>
    Resource managers like Torque (PBS) are in charge of ... managing
    the resources.<br>
    <br>
    Job schedulers (e.g. Maui, MOAB) decide which job gets to start
    next, and talk to the resource manager (i.e. poll for available
    resources, instruct which job should start next, etc.).<br>
    <br>
    <blockquote
      cite="mid:2D1D1F4D-9B47-48FD-AFF6-CFF4AA097FF4@siliconmechanics.com"
      type="cite">
      <div class=""> Torque, Lava, Maui, Moab, SLURM, Grid Engine, Son
        of Grid Engine, Univa, Platform LSF, etc… others?</div>
      <div class=""><br class="">
      </div>
      <div class=""><u class="">Shared filesystems</u>: NFS, pNFS,
        Lustre, GPFS, PVFS2, GlusterFS, ? </div>
      <div class=""><br class="">
      </div>
      <div class=""><u class="">Library management</u>: Lmod, ? <br>
      </div>
    </blockquote>
    <br>
    EasyBuild<br>
    <br>
    (disclaimer: I'm the lead developer)<br>
    <br>
    <blockquote
      cite="mid:2D1D1F4D-9B47-48FD-AFF6-CFF4AA097FF4@siliconmechanics.com"
      type="cite">
      <div class=""><br class="">
      </div>
      <div class=""><u class="">Performance monitoring</u>: Ganglia,
        Nagios, ?</div>
      <div class=""><br class="">
      </div>
      <div class=""><u class="">Cluster management toolkits</u>: I
        believe these perform many of the functions above, all wrapped
        up in one tool?  Rocks, Oscar, Scyld, Bright, ?</div>
      <div class=""><br class="">
      </div>
      <div class=""><br class="">
      </div>
      <div class="">Does anyone have any observations as to which of the
        above are the most common?  Or is that too broad?  I  believe
        most the clusters I will be involved with will be in the 128 -
        2000 core range, all on commodity hardware.</div>
    </blockquote>
    <br>
    See the "Small HPC Centers" survey I pointed to above.<br>
    <br>
    <br>
    K.<br>
    <blockquote
      cite="mid:2D1D1F4D-9B47-48FD-AFF6-CFF4AA097FF4@siliconmechanics.com"
      type="cite">
      <div class=""> </div>
      <div class=""><br class="">
      </div>
      <div class="">Thank you!</div>
      <div class=""><br class="">
      </div>
      <div class="">- Jeff</div>
      <div class=""><br class="">
      </div>
      <div class=""><br class="">
      </div>
      <div class=""><br class="">
      </div>
      <div class=""><br class="">
      </div>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
      <pre wrap="">_______________________________________________
Beowulf mailing list, <a class="moz-txt-link-abbreviated" href="mailto:Beowulf@beowulf.org">Beowulf@beowulf.org</a> sponsored by Penguin Computing
To change your subscription (digest mode or unsubscribe) visit <a class="moz-txt-link-freetext" href="http://www.beowulf.org/mailman/listinfo/beowulf">http://www.beowulf.org/mailman/listinfo/beowulf</a>
</pre>
    </blockquote>
    <br>
  </body>
</html>