<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=us-ascii">
</head>
<body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; color: rgb(0, 0, 0); font-size: 14px; font-family: Calibri, sans-serif; ">
<div>
<div>
<div><span class="Apple-style-span" style="font-size: 15px; font-family: Calibri; "><span style="font-weight:bold">From:
</span>"<a href="mailto:prentice.bisbal@rutgers.edu">prentice.bisbal@rutgers.edu</a>" <<a href="mailto:prentice.bisbal@rutgers.edu">prentice.bisbal@rutgers.edu</a>></span></div>
</div>
</div>
<span id="OLK_SRC_BODY_SECTION">
<div style="font-family:Calibri; font-size:11pt; text-align:left; color:black; BORDER-BOTTOM: medium none; BORDER-LEFT: medium none; PADDING-BOTTOM: 0in; PADDING-LEFT: 0in; PADDING-RIGHT: 0in; BORDER-TOP: #b5c4df 1pt solid; BORDER-RIGHT: medium none; PADDING-TOP: 3pt">
<span style="font-weight:bold">Reply-To: </span>"<a href="mailto:prentice.bisbal@rutgers.edu">prentice.bisbal@rutgers.edu</a>" <<a href="mailto:prentice.bisbal@rutgers.edu">prentice.bisbal@rutgers.edu</a>><br>
<span style="font-weight:bold">Date: </span>Wednesday, November 27, 2013 11:58 AM<br>
<span style="font-weight:bold">To: </span>"<a href="mailto:beowulf@beowulf.org">beowulf@beowulf.org</a>" <<a href="mailto:beowulf@beowulf.org">beowulf@beowulf.org</a>><br>
<span style="font-weight:bold">Subject: </span>Re: [Beowulf] SC13 wrapup, please post your own<br>
</div>
<div><br>
</div>
<div>
<div text="#000000" bgcolor="#FFFFFF">
<div class="moz-cite-prefix">John, <br>
<br>
Since you work in F1...<br>
<br>
The guys from Intelligent Light (<a class="moz-txt-link-freetext" href="http://www.ilight.com/">http://www.ilight.com/</a>) gave a presentation at SC13 on how they helped both Red Bull F1 and Zipp wheels (<a class="moz-txt-link-freetext" href="http://www.zipp.com">http://www.zipp.com</a>)
 with HPC. I think both of these examples show how easily quantifiable ROI can be in certain scenarios. It also shows how you can use different methods to calculate ROI.
<br>
<br>
In the Red Bull F1 case, they made it easier and quicker for Red Bull to analyze the results of their CFD simulations. Obviously, if you can calculate the # of aerodynamics simulations they were able to analyze per week before and after, you can figure out
 the value based on the cost of labor for the aerodynamics experts, and then calculate the value of this increase in productivity. The ultimate measure, though, would be to measure the increase in co-sponsor dollars/prize-winnings after using this new workflow.
<br>
<br>
</div>
</div>
</div>
</span>
<div><br>
</div>
<div><br>
</div>
<div>---</div>
<div><br>
</div>
<div><br>
</div>
<div>But this kind of thing is hard to really quantify.   It's like trying to quantify the value of a square foot of laboratory space (or office space).  You don't really have a nice relationship for productivity: someone will argue that had they had less computational
 resources, they would have come up with better analytical solutions.  After all, the atomic bomb was designed with slide rules, and the computers used for trajectory calcs for Apollo weren't a whole lot better.  One will hear exhortations from managers to
 "do more with less, in these straitened economic times", and most of the time, people will do this (work hours grow, but salaries do not).</div>
<div><br>
</div>
<div>(at least until an alternative for the employee arises.. If they can go elsewhere, they will)</div>
<div><br>
</div>
<div>It's like those "studies" that show that open plan offices are more cost effective.  What it really means is that you have to buy or rent fewer square meters per employee because you aren't procuring walls, hallways, and doors. Even more extreme is "hoteling",
 where you don't even have cubes.   The problem is that "people productivity" for knowledge workers is as hard to measure as HPC ROI.  You need many years of data to know if you are working better or worse; but the immediate cost reduction is obvious.  So you
 might be able to save money on a per employee basis, but get less total "value" out of them.</div>
<div><br>
</div>
<div>It's only if the alternatives are equally viable that you can do a head to head comparison:  A room full of 1950s era "computers" with their Marchand calculators against an old IBM PC doing the same calculations.</div>
<div><br>
</div>
<div>How do you quantify (in an absolute, accounting/book-keeping sense) the "value" of running twice as many simulations? There are very few HPC situations where you can draw a curve that has value/additional run.   Usually, the number of runs is set either
 by a resource limit (wall clock time, money, etc.), or by some aspect of the underlying randomness (simulating at a finer scale doesn't provide information because the underlying phenomenon has a larger scale), or the problem becomes numerically unstable or
 ill conditioned (which is really a "precision" issue).  But there are engineering problems where "doing better", particularly with one aspect, can be shown not to improve things. (This can all be formalized with things like Cramer-Rao bounds and the Fisher
 Information Matrix).  You can improve the signal processing in a single frequency GPS receiver to your heart's content, but the accuracy will be limited by the uncertainty of ionospheric propagation.</div>
<div><br>
</div>
<div>What is the economic value of getting weather predictions that are better?   Over many years, one can figure out statistics that say how much it saves to know where the hurricane landfall will be with higher accuracy: the reduced costs of evacuation, for
 instance. But even in those situations, the estimates are a bit fuzzy, with lots of externalities.</div>
</body>
</html>