<div dir="ltr">Dear Listeroons,<div><br></div><div style>I have been doing some testing with KVM and Virtuozzo(containers based virtualisation)  and various storage devices and have some results I would like some help analyzing. </div>
<div style><br></div><div style>I have a nice big ZFS box from Oracle (Yes, evil but Solaris NFS is amazing). I have 10G and IB connecting these to my cluster</div><div style><br></div><div style>My cluster is four HP servers (E5-2670 &amp; 144GB ram) with a RAID10 of 600k SAS drives. </div>
<div style><br></div><div style>Please open these pictures side by side.</div><div style><br></div><div style><a href="https://dl.dropbox.com/u/98200887/Screen%20Shot%202012-12-04%20at%202.50.33%20PM.png">https://dl.dropbox.com/u/98200887/Screen%20Shot%202012-12-04%20at%202.50.33%20PM.png</a><br>
</div><div style><br></div><div style><a href="https://dl.dropbox.com/u/98200887/Screen%20Shot%202012-12-04%20at%203.18.03%20PM.png">https://dl.dropbox.com/u/98200887/Screen%20Shot%202012-12-04%20at%203.18.03%20PM.png</a><br>
</div><div style><br></div><div style>You will notice that using KVM/LVM on the local RAID10 completely destroys performance whereas the container based virtualisation stuff is awesome and as fast as the NFS.</div><div style>
<br></div><div style>Why does LVM suck so hard compared to a single filesystem approach. What am I doing wrong? </div><div style><br></div><div style>4,8,12,16...VMs relates to the aggregate performance of the benchmark in that number of VMs. 4 = 1 VM on each node, 8 = 2 VM on each node.</div>
<div style><br></div><div style>TPCC warehouses is the number of tpcc warehouses that  the benchmark used. 1 warehouse is about 150MB so 10 warehouses would mean about 1.5GB of data being held in the innodb pool.</div><div style>
<br></div><div style>Thanks,</div><div style><br></div><div style>Andrew</div><div style><br></div><div style><br></div><div style><br></div><div style><br></div><div style><br></div><div style><br></div><div style><br></div>
</div>