Dear all, <br /><br />I am trying to run cp2k on our HPC cluster and I am new in doing any kind of parallel computing and work on a cluster, so I would appreciate if some help and I apologize if I am missing something obvious. <br /><div>I am trying to use Cp2k in combination with apptainerĀ  and I followed instructions at https://github.com/cp2k/cp2k/tree/master/tools/apptainerĀ  <br /></div><div><br /></div><div>I have a .sif file in my work directory and if I work within it (Running MPI within the container), everything works perfectly and I can set the number of MPI threads. </div><br /><div>But when trying to run it through slurm, I can't seem to be able to set the number of MPI processes per node. If i start a command like: <br /></div><div>srun --ntasks=2 apptainer <span><span>run -B $PWD cp2k-2023.2_mpich_generic_psmp.sif cp2k -i H2O-32.in</span></span></div><div>it just starts 2 instances of the program that run at the same time, and for each, the total number of message passing processes is 1. I am able to set and change the number of OpenMP threads though. <br /></div><div>So my question would be first, am I wrongly assuming that --ntasks X should correspond to the number of MPI threads? And if I am, how would I set it. <br /></div><div><br /></div><div>Please let me know if I need to provide any more information to diagnose the issue. <br /></div><div>Thank you very much for the help and kind regards, <br /></div><div>Ava Rajh<br /></div>

<p></p>

-- <br />
You received this message because you are subscribed to the Google Groups "cp2k" group.<br />
To unsubscribe from this group and stop receiving emails from it, send an email to <a href="mailto:cp2k+unsubscribe@googlegroups.com">cp2k+unsubscribe@googlegroups.com</a>.<br />
To view this discussion on the web visit <a href="https://groups.google.com/d/msgid/cp2k/2393b350-7de0-4599-97e0-4f52ffec0c5en%40googlegroups.com?utm_medium=email&utm_source=footer">https://groups.google.com/d/msgid/cp2k/2393b350-7de0-4599-97e0-4f52ffec0c5en%40googlegroups.com</a>.<br />