<div dir="ltr">When we were looking at a possible GPFS client license purchase we ran the client on our nodes and did some basic testing. The client did give us a bit of a boost in performance over NFS, but still we could tip GPFS over with a small fraction of our available nodes. The improvement was not enough to be worth the license cost involved. And it's pretty hard to beat the added performance of a whole new storage server especially given the relative costs. <div><br></div><div>Multiple chunks of storage make it possible to isolate workloads as well. In the end, price, flexibility and overall performance in our environment as a whole beat out the slick GPFS sales presentation :) My rule of thumb is that a salesman in a suit that expensive may seem impressive but probably doesn't have my best interests in mind.<br><div><br></div><div>jbh<br><br><div class="gmail_quote"><div dir="ltr">On Wed, Feb 15, 2017 at 4:05 AM Christopher Samuel <<a href="mailto:samuel@unimelb.edu.au">samuel@unimelb.edu.au</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">On 14/02/17 18:31, John Hanks wrote:<br class="gmail_msg">
><br class="gmail_msg">
> 1. (~500 TB) DDN SFA12K running gridscaler (GPFS) but without GPFS<br class="gmail_msg">
> clients on nodes, this is presented to the cluster through cNFS.<br class="gmail_msg">
[...]<br class="gmail_msg">
> Depending on your benchmark, 1, 2 or 3 may be faster. GPFS falls over<br class="gmail_msg">
> wheezing under load.<br class="gmail_msg">
<br class="gmail_msg">
I suspect that's more a limitation of NFS than GPFS though in your set<br class="gmail_msg">
up.  We've got DDN SFA10K's with GPFS all the way down and that works<br class="gmail_msg">
really well for us (so far).<br class="gmail_msg">
<br class="gmail_msg">
All the best,<br class="gmail_msg">
Chris<br class="gmail_msg">
--<br class="gmail_msg">
 Christopher Samuel        Senior Systems Administrator<br class="gmail_msg">
 VLSCI - Victorian Life Sciences Computation Initiative<br class="gmail_msg">
 Email: <a href="mailto:samuel@unimelb.edu.au" class="gmail_msg" target="_blank">samuel@unimelb.edu.au</a> Phone: +61 (0)3 903 55545<br class="gmail_msg">
 <a href="http://www.vlsci.org.au/" rel="noreferrer" class="gmail_msg" target="_blank">http://www.vlsci.org.au/</a>      <a href="http://twitter.com/vlsci" rel="noreferrer" class="gmail_msg" target="_blank">http://twitter.com/vlsci</a><br class="gmail_msg">
_______________________________________________<br class="gmail_msg">
Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org" class="gmail_msg" target="_blank">Beowulf@beowulf.org</a> sponsored by Penguin Computing<br class="gmail_msg">
To change your subscription (digest mode or unsubscribe) visit <a href="http://www.beowulf.org/mailman/listinfo/beowulf" rel="noreferrer" class="gmail_msg" target="_blank">http://www.beowulf.org/mailman/listinfo/beowulf</a><br class="gmail_msg">
</blockquote></div></div></div></div><div dir="ltr">-- <br></div><div data-smartmail="gmail_signature"><div dir="ltr"><div>‘[A] talent for following the ways of yesterday, is not sufficient to improve the world of today.’</div><div> - King Wu-Ling, ruler of the Zhao state in northern China, 307 BC</div></div></div>