<div dir="ltr"><div>Your assumption is correct, MPI cannot allocate more than 2 GB. You have to use more MPI ranks (is there any reason to limit to 2 ranks and 20 threads?).</div><div><br></div><div>Best regards,</div><div><br></div><div>Alfio</div><br><br>Il giorno venerdì 10 maggio 2019 16:06:07 UTC+2, Puneet Singh ha scritto:<blockquote class="gmail_quote" style="margin: 0;margin-left: 0.8ex;border-left: 1px #ccc solid;padding-left: 1ex;"><div dir="ltr">Hi,<br>I am trying to run a cp2k-2.1 executable compiled using gcc 7.2.0 and openmpi 3.1.2<br>Wen i run H20-1024.inp test case on system having 256G memory (insufficient memory is not issue here), i get following error - <br><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><font color="#ff0000"><b>"MPI cannot allocate more than 2 GiByte</b></font></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b> ===== Routine Calling Stack =====</b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b><br></b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b>           18 mp_allocate_d</b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b>           17 dbcsr_data_new</b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b>           16 make_images</b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b>           15 make_m2s</b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b>           14 dbcsr_multiply_generic</b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b>           13 apply_single</b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b>           12 apply_preconditioner_dbcsr</b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b>           11 qs_ot_get_derivative</b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b>           10 ot_mini</b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b>            9 ot_scf_mini</b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b>            8 qs_scf_loop_do_ot</b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b>            7 qs_scf_new_mos</b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b>            6 scf_env_do_scf_inner_loop</b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b>            5 scf_env_do_scf</b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b>            4 qs_energies</b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b>            3 qs_forces</b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b>            2 qs_mol_dyn_low</b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b>            1 CP2K</b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b>------------------------------<wbr>------------------------------<wbr>--------------</b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b>MPI_ABORT was invoked on rank 0 in communicator MPI_COMM_WORLD</b></font></div></div></blockquote></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><font color="#ff0000"><b>with errorcode 1.</b></font></div></div></blockquote></blockquote></blockquote><div><div><br>i used only 2 processed for this run , for my 40 core machine  as - <br></div></div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><b>OMP_NUM_THREADS=20 mpirun -np 2 ./cp2k.psmp -i H2O-1024.inp</b></div></div></blockquote></blockquote><div><div><br>smaller test cases work fine (upto 256)<br><br>I can recall the earlier i was able to run  with16 processes succesfully with 1024 test case.<br>It seems that there is limit of memory per MPI process, Is there a way to get past the 2 GB limit wihout increasing processes  ? -<br><br>Please let me know if i can provide more information on this issue from my end.</div><div><br>Regards,<br>Puneet</div></div><div><br></div><div><br></div><div><br></div></div></blockquote></div>