<div dir="ltr">We will use the phi's in many ways.  By having codes directly compiled on them and running directly on the phi (ssh to the phi and feed data on stdin)...  some of our codes are trivially threads with pthreads and some with openmp.  We also have a GPU code (opencl) which will hopefully work out of the box as well.<br>

</div><div class="gmail_extra"><br><br><div class="gmail_quote">On Tue, Jan 15, 2013 at 12:02 AM, Alan Louis Scheinine <span dir="ltr"><<a href="mailto:alscheinine@tuffmail.us" target="_blank">alscheinine@tuffmail.us</a>></span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="im">Stu Midgley wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
As you might guess, we were very happy with how our codes run on the Phi<br>
</blockquote>
> and the time/effort required to port.  It is very very simple to use and<br>
> the performance is excellent :)  With no tuning (just recompile) we saw<br>
> a single phi go at about 1.7x faster than our current AMD 64 cores nodes.<br>
<br></div>
What parallel language for utilization of Phi?  OpenMP?<br>
<br>
Regards,<br>
Alan Scheinine<span class="HOEnZb"><font color="#888888"><br>
<br>
-- <br>
<br>
 Alan Scheinine<br>
 200 Georgann Dr., Apt. E6<br>
 Vicksburg, MS  39180<br>
<br>
 Email: <a href="mailto:alscheinine@tuffmail.us" target="_blank">alscheinine@tuffmail.us</a><br>
 Mobile phone: <a href="tel:225%20288%204176" value="+12252884176" target="_blank">225 288 4176</a><br>
<br>
 <a href="http://www.flickr.com/photos/ascheinine" target="_blank">http://www.flickr.com/photos/<u></u>ascheinine</a><br>
</font></span></blockquote></div><br><br clear="all"><br>-- <br>Dr Stuart Midgley<br><a href="mailto:sdm900@sdm900.com" target="_blank">sdm900@sdm900.com</a>
</div>