<div dir="ltr">Hi again,<div><br></div><div>those data seem show reasonable scaling across the cores in the box - certainly a big improvement on 2 cores compared to 1 core ...</div><div><br></div><div>1 core  CP2K                                 1  1.0    0.483    0.483 1812.510 1812.510</div><div>2 core  CP2K                                 1  1.0    0.322    0.329 1075.661 1075.664</div><div><div>4 core  CP2K                                 1  1.0    0.182    0.183  753.037  753.042</div><div><br></div><div>which sort of suggests that the communications between nodes is getting saturated, rather than the inbox being the problem?</div><div><br></div><div>It might be clearer still with the same data for the 4 vs 8 vs16 MPI processors on the cluster.</div><div><br></div><div>Matt</div><div><br></div><br>On Monday, March 17, 2014 11:12:45 AM UTC, labicia wrote:<blockquote class="gmail_quote" style="margin: 0;margin-left: 0.8ex;border-left: 1px #ccc solid;padding-left: 1ex;"><div dir="ltr">Dear all,<div>thank you very much for the help.</div><div><br></div><div>Please find attached a file with the timings for the same run done with:</div><div>1 MPI</div><div>2 MPI</div><div>4 MPI</div><div>on a single i5 2550K processor. The machine has 16GB of ram and the memory required by the simulation is about 12GB, no swap.</div></div></blockquote></div></div>