<div dir="ltr">This article might be interesting:<div><br></div><div><a href="http://www.information-age.com/technology/data-centre-and-it-infrastructure/123459441/inside-uks-first-collaborative-data-centre">http://www.information-age.com/technology/data-centre-and-it-infrastructure/123459441/inside-uks-first-collaborative-data-centre</a><br></div><div><br></div><div>As it says 'Data-centre-as-a-service'</div><div>A shared data centre, outside the centre of the city, used by several research inistitutes and universities.</div><div>I have been involved in preparing bids for equipment there, including the innovative eMedlab project.</div><div><br></div><div>Central London has its own problems in getting enough space and power for large computing setups, and this makes a lot of sense.</div><div><br></div><div><br></div><div><br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On 8 May 2015 at 20:58, Dimitris Zilaskos <span dir="ltr"><<a href="mailto:dimitrisz@gmail.com" target="_blank">dimitrisz@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div>Hi,<br><br>IBM Platform does provide IB for HPC with bare metal and cloudbursting, among other HPC services on the cloud. Detailed information including benchmarks can be found at <a href="http://www-03.ibm.com/systems/platformcomputing/products/cloudservice/" target="_blank">http://www-03.ibm.com/systems/platformcomputing/products/cloudservice/</a> . Note that I work for IBM so I am obviously biased.<br><br></div>Best regards,<br><br></div>Dimitris<br> </div><div class="HOEnZb"><div class="h5"><div class="gmail_extra"><br><div class="gmail_quote">On Fri, May 8, 2015 at 2:40 PM, Prentice Bisbal <span dir="ltr"><<a href="mailto:prentice.bisbal@rutgers.edu" target="_blank">prentice.bisbal@rutgers.edu</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Mike,<br>
<br>
What are the characteristics of your cluster workloads? Are they tightly coupled jobs, or are they embarassingly parallel or serial jobs? I find it hard to believe that a virtualized, ethernet shared network infrastructure can compete with FDR IB for performance on tightly coupled jobs. AWS HPC representatives came to my school to give a presentation on their offerings, and even they admitted as much.<br>
<br>
If your workloads are communication intensive, I'd think harder about using the cloud, or find a cloud provider that provides IB for HPC (there are a few that do, but I can't remember their names).  If your workloads are loosely-coupled jobs or many serial jobs, AWS or similar might be fine. AWS does not provide IB, and in fact shares very little information about their network architecture, making it had to compare to other offerings without actually running benchmarks.<br>
<br>
If your users primarily interact with the cluster through command-line logins, using the cloud shouldn't be noticeably different the hostname(s) they have to SSH to will be different, and moving data in an out might be different, but compiling and submitting jobs should be the same if you make the same tools available in the cloud that you have on your local clusters.<span><font color="#888888"><br>
<br>
Prentice</font></span><div><div><br>
<br>
<br>
<br>
On 05/07/2015 06:28 PM, Hutcheson, Mike wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi.  We are working on refreshing the centralized HPC cluster resources<br>
that our university researchers use.  I have been asked by our<br>
administration to look into HPC in the cloud offerings as a possibility to<br>
purchasing or running a cluster on-site.<br>
<br>
We currently run a 173-node, CentOS-based cluster with ~120TB (soon to<br>
increase to 300+TB) in our datacenter.  It¹s a standard cluster<br>
configuration:  IB network, distributed file system (BeeGFS.  I really<br>
like it), Torque/Maui batch.  Our users run a varied workload, from<br>
fine-grained, MPI-based parallel aps scaling to 100s of cores to<br>
coarse-grained, high-throughput jobs (We¹re a CMS Tier-3 site) with high<br>
I/O requirements.<br>
<br>
Whatever we transition to, whether it be a new in-house cluster or<br>
something ³out there², I want to minimize the amount of change or learning<br>
curve our users would have to experience.  They should be able to focus on<br>
their research and not have to spend a lot of their time learning a new<br>
system or trying to spin one up each time they have a job to run.<br>
<br>
If you have worked with HPC in the cloud, either as an admin and/or<br>
someone who has used cloud resources for research computing purposes, I<br>
would appreciate learning your experience.<br>
<br>
Even if you haven¹t used the cloud for HPC computing, please feel free to<br>
share your thoughts or concerns on the matter.<br>
<br>
Sort of along those same lines, what are your thoughts about leasing a<br>
cluster and running it on-site?<br>
<br>
Thanks for your time,<br>
<br>
Mike Hutcheson<br>
Assistant Director of Academic and Research Computing Services<br>
Baylor University<br>
<br>
<br>
_______________________________________________<br>
Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org" target="_blank">Beowulf@beowulf.org</a> sponsored by Penguin Computing<br>
To change your subscription (digest mode or unsubscribe) visit <a href="http://www.beowulf.org/mailman/listinfo/beowulf" target="_blank">http://www.beowulf.org/mailman/listinfo/beowulf</a><br>
</blockquote>
<br>
_______________________________________________<br>
Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org" target="_blank">Beowulf@beowulf.org</a> sponsored by Penguin Computing<br>
To change your subscription (digest mode or unsubscribe) visit <a href="http://www.beowulf.org/mailman/listinfo/beowulf" target="_blank">http://www.beowulf.org/mailman/listinfo/beowulf</a><br>
</div></div></blockquote></div><br></div>
</div></div><br>_______________________________________________<br>
Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org">Beowulf@beowulf.org</a> sponsored by Penguin Computing<br>
To change your subscription (digest mode or unsubscribe) visit <a href="http://www.beowulf.org/mailman/listinfo/beowulf" target="_blank">http://www.beowulf.org/mailman/listinfo/beowulf</a><br>
<br></blockquote></div><br></div>