<div dir="ltr">Dear Samuel,<br><br>thank you for your reply. <br><br>about the memory:<br>Yes, it is possible to run the code on more nodes and the supercomputer has different partitions which belong to several institutes and our partition contains 180 nodes with 12 cores each. But for my project, I have reserved / allocated a certain amount of CPU times and therefore I would like to check first small simulations (how many steps per day and how efficient the simulation was run) before I start large simulations.<br>I am not sure how to write a SLURM code to use one rank per node. Should the code look like or should I define OMP_NUM_THREADS and ntasks differently ? :<br><br>------------------------------------------------------<br>#SBATCH --nodes=16<br>#SBATCH --tasks-per-node=12<br>#SBATCH --cpus-per-task=1 <br>#SBATCH --mem-per-cpu=3000M<br><br>echo Starting Program<br>module load cp2k<br>module load bullxmpi<br>export OMP_NUM_THREADS=4<br>srun --ntasks 192 cp2k.popt input.inp<br>echo Finished Program<br>-------------------------------------------------------<br><br>linear scaling:<br>Here is the newly updated input file. Should the part under the section &SCF be different (make it shorter) or does the dioganlization process in SCF influence the linear scaling method negatively? I mean, if the linear scaling SCF is running then the (conventional) SCF works simultaneously, doesn't it? Otherwise I can delete most entries under this section. What do you think?<br><br>Kind regards,<br><br>Phil<br></div>