<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Mon, Jul 10, 2017 at 5:00 PM, Marine Lasbleis <span dir="ltr"><<a href="mailto:marine.lasbleis@gmail.com" target="_blank">marine.lasbleis@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div style="word-wrap:break-word">Hi all, <div><br></div><div>This is my first message here, I hope it’s OK. </div><div>I’m started to work on ASPECT, and installed it already on a desktop computer (debian with 8 cores). But would like to install it on the available clusters. (I have access to 3 different clusters. Not sure which one is the best for that… And definitely no real admin for the clusters. They are “self-organised”, which is not always for the best)</div><div><div><br></div><div>I’m trying to install ASPECT on the ELSI cluster, which is a CRAY CX30, and while having problems, I found that you may have done the same a couple of weeks ago (I saw this conversation: <a href="http://dealii.narkive.com/jCU1oGdB/deal-ii-get-errors-when-installing-dealii-on-opensuse-leap-42-1-by-using-candi" target="_blank">http://dealii.<wbr>narkive.com/jCU1oGdB/deal-ii-<wbr>get-errors-when-installing-<wbr>dealii-on-opensuse-leap-42-1-<wbr>by-using-candi</a> )</div><div><br></div><div>For now, what we’ve done: (before seeing candi installation)</div><div>- switch to PrgEnv-gnu </div><div>- try to install p4est. But it seems that we need to use “ftn” and not fortran or others, so he can’t do anything, and stop very soon. I tried to modify by hand the configure file (adding ftn where I could find the system was looking for fortran of mpif77.) But I guess it’s definitely not a good idea, and I am obviously still missing a couple of call because I still got the same error. </div><div><br></div><div>So, with the conversation, I guessed that <a href="https://github.com/dealii/candi" target="_blank">https://github.com/<wbr>dealii/candi</a> can actually install everything for me. </div><div>Since I’m using a slightly different cluster (CRAY XC30), I will try to give you updates on my progress. </div><div>I’m not familiar with candi, but I decided to give a try, so please excuse me if I am doing obvious mistakes. </div><div><br></div><div>I changed the configuration as requested, and loaded the required modules and defined new variables for the info on the compilers. </div><div>In this particular cluster, we need to be careful with the path where to install (the default one is on a drive that is very slow to access, and compilation takes forever), so I had to use a -p path option. Also, I think I used first too many cores to compile, and got a memory error (internal compiler error raised, which seems to be related to available memory)</div><div><br></div><div>So, from my day trying to install: </div><div>- I finished the candi.sh script, apparently everything correctly installed. </div><div>- I built ASPECT (with this particular cluster, be careful with cmake. By default, the cmake is not up-to-date, and in particular even after installation with candi.sh, the available cmake is not the one that was installed)</div><div>I got a couple of warnings, mostly about PETSc, that I thought were only warnings and not problems.</div><div>Most of them were along the line of this one: </div><div>warning: 'dealii::PETScWrappers::MPI::<wbr>Vector::supports_distributed_<wbr>data' is deprecated [-Wdeprecated-declarations] , for either PETSc or Trilinos.</div><div><br></div><div>- I’ve run a couple of examples from the cookbook. None are working. </div><div><br></div><div>I got this from running ASPEC using aprun -n4 ../aspect burnman.prm</div><div><div>------------------------------<wbr>------------------------------<wbr>-----------------</div><div>-- This is ASPECT, the Advanced Solver for Problems in Earth's ConvecTion.</div><div>--     . version 1.5.0</div><div>--     . running in DEBUG mode</div><div>--     . running with 4 MPI processes</div><div>--     . using Trilinos</div><div>------------------------------<wbr>------------------------------<wbr>-----------------</div><div><br></div><div>[0]PETSC ERROR: [1]PETSC ERROR: [3]PETSC ERROR: [2]PETSC ERROR: ------------------------------<wbr>------------------------------<wbr>------------</div><div>[0]PETSC ERROR: ------------------------------<wbr>------------------------------<wbr>------------</div><div>------------------------------<wbr>------------------------------<wbr>------------</div><div>[2]PETSC ERROR: ------------------------------<wbr>------------------------------<wbr>------------</div><div>[1]PETSC ERROR: [3]PETSC ERROR: Caught signal number 8 FPE: Floating Point Exception,probably divide by zero</div><div>[1]PETSC ERROR: Try option -start_in_debugger or -on_error_attach_debugger</div><div>Caught signal number 8 FPE: Floating Point Exception,probably divide by zero</div><div>[1]PETSC ERROR: [3]PETSC ERROR: or see <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html#valgrind" target="_blank">http://www.mcs.anl.gov/petsc/<wbr>documentation/faq.html#<wbr>valgrind</a></div><div>Try option -start_in_debugger or -on_error_attach_debugger</div><div>[1]PETSC ERROR: [3]PETSC ERROR: or try <a href="http://valgrind.org" target="_blank">http://valgrind.org</a> on GNU/linux and Apple Mac OS X to find memory corruption errors</div><div>or see <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html#valgrind" target="_blank">http://www.mcs.anl.gov/petsc/<wbr>documentation/faq.html#<wbr>valgrind</a></div><div>[1]PETSC ERROR: [3]PETSC ERROR: configure using --with-debugging=yes, recompile, link, and run</div><div>or try <a href="http://valgrind.org" target="_blank">http://valgrind.org</a> on GNU/linux and Apple Mac OS X to find memory corruption errors</div><div>[1]PETSC ERROR: [3]PETSC ERROR: to get more information on the crash.</div><div>configure using --with-debugging=yes, recompile, link, and run</div><div>[3]PETSC ERROR: to get more information on the crash.</div><div>[1]PETSC ERROR: --------------------- Error Message ------------------------------<wbr>------------------------------<wbr>--</div><div>Caught signal number 8 FPE: Floating Point Exception,probably divide by zero</div></div><div><br></div><div>Any idea where this could come from? </div></div></div></blockquote><div><br></div><div>This does not appear to actually be a PETSc error. It appears that ASPECT calls PetscInitialize</div><div>even when 'using Trilinos'. This installs a signal handler (unless you unload it), which caught</div><div>the FPE signal generated somewhere in ASPECT code.</div><div><br></div><div>I suggest you run this under valgrind. I also suggest not debugging in parallel before serial things work.</div><div><br></div><div>  Thanks,</div><div><br></div><div>     Matt</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div style="word-wrap:break-word"><div><div>(any additional files I should show you?) </div><div><br></div><div><br></div><div>Thanks! (and many thanks to the person who did the candi.sh script for Cray XC40 :-) )</div><span class="HOEnZb"><font color="#888888"><div>Marine</div><div><br></div><div><br></div><div><br>
<br></div></font></span></div></div><br>______________________________<wbr>_________________<br>
CIG-MC mailing list<br>
<a href="mailto:CIG-MC@geodynamics.org">CIG-MC@geodynamics.org</a><br>
<a href="http://lists.geodynamics.org/cgi-bin/mailman/listinfo/cig-mc" rel="noreferrer" target="_blank">http://lists.geodynamics.org/<wbr>cgi-bin/mailman/listinfo/cig-<wbr>mc</a><br></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature" data-smartmail="gmail_signature">What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>-- Norbert Wiener</div>
</div></div>