В данной статье содержится набор описаний опций, параметров и команд для работы с движком моделирования пакета Gromacs - программой mdrun, для запуска параллельного и обычного расчетов.
• mdrun - все процедуры расчетов в пакете GROMACS осуществляются программой mdrun, которой на вход подаётся один единственный файл с расширением .tpr. На выходе mdrun выдаёт траекторный файл (-о ), файл с конечными координатами атомов (структурный, *.gro, -с), файл энергий (-е) и лог-файл, в котором содержится отчёт с промежуточными итогами расчётов (-g).
- /* ... когда PME используется в доменной декомпозицией, разделеным хостам должно быть дано только одно вычисление PME mesh, в вычислительном плане более эфекстивно запускать на 12 хостах. Число PME хостов устанавливается опцией -npme, оно не должно быть более, чем половина хостов. По умолчанию mdrun сделает придерется к числу PME хостов, когда оно меньше, чем 11 или "разумный" запуск не будет совместим с PME измерением сетки x. Но пользователь должен оптимизировать npme. Статистика производительности об этой проблеме пишется в конец лог файла расчета. Для хорошей загрузочной балансировки (load balancing) на высоком уровне распараллеливания, npme должно быть делимы на число PME хостов. ... */
============
mdrun_mpi_d , mdrun_mpi или mdrun // в зависимости от сборки
-s topol.tpr
-o traj.trr
-x traj.xtc
-cpi state.cpt
-cpo state.cpt
-c confout.gro
-e ener.edr
-g md.log
-dgdl dgdl.xvg
-field field.xvg
-table table.xvg
-tablep tablep.xvg
-tableb table.xvg
-rerun rerun.xtc
-tpi tpi.xvg
-tpid tpidist.xvg
-ei sam.edi
-eo sam.edo
-j wham.gct
-jo bam.gct
-ffout gct.xvg
-devout deviatie.xvg
-runav runaver.xvg
-px pullx.xvg
-pf pullf.xvg
-mtx nm.mtx
-dn dipole.ndx
-[no]h // спаравка
-nice int // приоритет запуска
-deffnm string // установить имя файла по умолчанию для всех файлов опции
-[no]xvgr [yes] // добавить спец.код для выходных xvg файлов для xmgrace
-[no]pd [no] // использовать
-dd vector [0 0 0] // сетка доменной декомпозиции(ДД), 0 - оптимизация
-npme int // число разделнных хостов для использования PME
-ddorder enum [interleave] // ДД порядок хостов: interleave , pp_pme или cartesian
-[no]ddcheck [yes] // проверка для всех связных взаимодействий с ДД
-rdd real [0] // максимальное расстояние для связных взаимодействий с ДД (нм), 0 установить из начальных координат
-rcon real [0] // максимальное расстояние для P-LINKS (нм), 0 - оценивать
-dlb enum [auto] // Динамическая загрузочная балансировка (с ДД): auto, no, yes
-dds real [0.8] // минимально разрешенный вычислинный dlb для размеров ячейки
-[no]sum [yes] // суммировать энергии каждый шаг
-[no]v [no] // больше инф.
-[no]compact [yes] // сделать компактным log файл
-[no]seppot [no] // записать разделив V и dVDl термы для каждого типа взаимодействия и хоста в лог файлы
-pforce real [-1] // писать все силы больше чем это значение (kJ/mol nm)
-[no]reprod [no] // пробовать онулировать оптимизацию, чтобы продложить с контрольной точки
-cpt real [15] // Интервал контрольной точки (минуты)
-[no]append [yes] // добавить моделируемую часть номера ко всем выходным файлам, когда продложается с контрольной точки
-maxh real [-1] // остановить после 0,99 момента в это время (часы)
-multi int [0] // сделать многократные моделирования параллельно
-replex int [0] // попытаться сделать точную копию каждый шаг
-reseed int [-1] // рандоматор для попыток сделать точнкую копию, -1 генерировать
-[no]glas [no] // провести /* стеклянное */ моделирование со специальной дальнодействующей коррекцией
-[no]ionize [no] // провести моделирование вуключая эффекты рентгеновского излучения воздействующего на вашу систему.
======
mdrun -nice 1 -v -s [7] -o [9] -c [10] -e [11] -g [12]
======
mpirun -hostfile mpi.host -np 9 mdrun_mpi -npme 4 [...] //запуск процесса моделирования с помощью OpenMPI на 9 процессорах с числом PME хостов = 4 /* макс. производительность при pme_oder=6 и запуске на 9 машинах на кластере*/ , файлы *.trr *.edr и другие будут сохраняться на машине, первой в списке mpi.host - доступных для использования машин.
P.S. Если статья была вам полезна проголосуйте в опросе блога, этим вы скажите СПАСИБО Автору, также можно обсудить её на Форуме.
Назад к оглавлению : руководство по Gromacs
• mdrun - все процедуры расчетов в пакете GROMACS осуществляются программой mdrun, которой на вход подаётся один единственный файл с расширением .tpr. На выходе mdrun выдаёт траекторный файл (-о ), файл с конечными координатами атомов (структурный, *.gro, -с), файл энергий (-е) и лог-файл, в котором содержится отчёт с промежуточными итогами расчётов (-g).
- /* ... когда PME используется в доменной декомпозицией, разделеным хостам должно быть дано только одно вычисление PME mesh, в вычислительном плане более эфекстивно запускать на 12 хостах. Число PME хостов устанавливается опцией -npme, оно не должно быть более, чем половина хостов. По умолчанию mdrun сделает придерется к числу PME хостов, когда оно меньше, чем 11 или "разумный" запуск не будет совместим с PME измерением сетки x. Но пользователь должен оптимизировать npme. Статистика производительности об этой проблеме пишется в конец лог файла расчета. Для хорошей загрузочной балансировки (load balancing) на высоком уровне распараллеливания, npme должно быть делимы на число PME хостов. ... */
============
mdrun_mpi_d , mdrun_mpi или mdrun // в зависимости от сборки
-s topol.tpr
-o traj.trr
-x traj.xtc
-cpi state.cpt
-cpo state.cpt
-c confout.gro
-e ener.edr
-g md.log
-dgdl dgdl.xvg
-field field.xvg
-table table.xvg
-tablep tablep.xvg
-tableb table.xvg
-rerun rerun.xtc
-tpi tpi.xvg
-tpid tpidist.xvg
-ei sam.edi
-eo sam.edo
-j wham.gct
-jo bam.gct
-ffout gct.xvg
-devout deviatie.xvg
-runav runaver.xvg
-px pullx.xvg
-pf pullf.xvg
-mtx nm.mtx
-dn dipole.ndx
-[no]h // спаравка
-nice int // приоритет запуска
-deffnm string // установить имя файла по умолчанию для всех файлов опции
-[no]xvgr [yes] // добавить спец.код для выходных xvg файлов для xmgrace
-[no]pd [no] // использовать
-dd vector [0 0 0] // сетка доменной декомпозиции(ДД), 0 - оптимизация
-npme int // число разделнных хостов для использования PME
-ddorder enum [interleave] // ДД порядок хостов: interleave , pp_pme или cartesian
-[no]ddcheck [yes] // проверка для всех связных взаимодействий с ДД
-rdd real [0] // максимальное расстояние для связных взаимодействий с ДД (нм), 0 установить из начальных координат
-rcon real [0] // максимальное расстояние для P-LINKS (нм), 0 - оценивать
-dlb enum [auto] // Динамическая загрузочная балансировка (с ДД): auto, no, yes
-dds real [0.8] // минимально разрешенный вычислинный dlb для размеров ячейки
-[no]sum [yes] // суммировать энергии каждый шаг
-[no]v [no] // больше инф.
-[no]compact [yes] // сделать компактным log файл
-[no]seppot [no] // записать разделив V и dVDl термы для каждого типа взаимодействия и хоста в лог файлы
-pforce real [-1] // писать все силы больше чем это значение (kJ/mol nm)
-[no]reprod [no] // пробовать онулировать оптимизацию, чтобы продложить с контрольной точки
-cpt real [15] // Интервал контрольной точки (минуты)
-[no]append [yes] // добавить моделируемую часть номера ко всем выходным файлам, когда продложается с контрольной точки
-maxh real [-1] // остановить после 0,99 момента в это время (часы)
-multi int [0] // сделать многократные моделирования параллельно
-replex int [0] // попытаться сделать точную копию каждый шаг
-reseed int [-1] // рандоматор для попыток сделать точнкую копию, -1 генерировать
-[no]glas [no] // провести /* стеклянное */ моделирование со специальной дальнодействующей коррекцией
-[no]ionize [no] // провести моделирование вуключая эффекты рентгеновского излучения воздействующего на вашу систему.
======
mdrun -nice 1 -v -s [7] -o [9] -c [10] -e [11] -g [12]
======
mpirun -hostfile mpi.host -np 9 mdrun_mpi -npme 4 [...] //запуск процесса моделирования с помощью OpenMPI на 9 процессорах с числом PME хостов = 4 /* макс. производительность при pme_oder=6 и запуске на 9 машинах на кластере*/ , файлы *.trr *.edr и другие будут сохраняться на машине, первой в списке mpi.host - доступных для использования машин.
P.S. Если статья была вам полезна проголосуйте в опросе блога, этим вы скажите СПАСИБО Автору, также можно обсудить её на Форуме.
Назад к оглавлению : руководство по Gromacs
0 коммент.:
Отправить комментарий
Ваш комментарий будет "принят к сведению" и пойдет на рассмотрение.