PARALLEL.RU

Дискуссионный клуб по параллельным вычислениям
Текущее время: 21 ноя 18 18:55

Часовой пояс: UTC + 4 часа [ Летнее время ]




Начать новую тему Ответить на тему  [ Сообщений: 3 ] 
Автор Сообщение
 Заголовок сообщения: Проблема с запуском mpi-приложения
СообщениеДобавлено: 24 апр 13 13:43 
Не в сети

Зарегистрирован: 24 апр 13 13:26
Сообщения: 2
Добрый день, коллеги.

Прошу помочь решить проблему с запуском mpi-приложения на Ломоносове.
Для компиляции и линковки использовался интел компилятор(intel/13.1.0 ), интеловская библиотека mpi (impi/4.1.0).
Программа разрабатывается и используется в Европе на многих кластерах,
то есть подразумевается, что ошибки не связаны с кодом программы.


Задача запускается следующиим образом
Код:
sbatch -N 4 -p test impi $DirInt2_Exe/int2cm


Если запускать задачу на 1 процессоре, то запуск происходит без проблем.
Если увеличить количество процессоров, то появляется следующая ошибка:

Код:
Fatal error in MPI_Send: Other MPI error, error stack:
MPI_Send(186): MPI_Send(buf=0x14a1940, count=5, MPI_INTEGER, dest=0, tag=6665, comm=0x84000002) failed
MPID_Send(53): DEADLOCK: attempting to send a message to the local process without a prior matching receive
[2:node1-130-31] unexpected disconnect completion event from [0:node1-130-29]
Assertion failed in file ../../dapl_conn_rc.c at line 1128: 0
[1:node1-130-30] unexpected disconnect completion event from [0:node1-130-29]
internal ABORT - process 2
Assertion failed in file ../../dapl_conn_rc.c at line 1128: 0
[3:node1-130-32] unexpected disconnect completion event from [0:node1-130-29]
internal ABORT - process 1
Assertion failed in file ../../dapl_conn_rc.c at line 1128: 0
internal ABORT - process 3


В чём может быть проблема?
У меня есть предположение, что не настроены необходимые переменные окружения
или же неверен вызов mpi-приложения.


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 25 апр 13 14:57 
Не в сети

Зарегистрирован: 24 апр 13 13:26
Сообщения: 2
Проблема предварительно снята переходом на OpenMPI и, соответственно, пересборкой бинарных файлов под OpenMPI.


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 18 май 13 13:37 
Не в сети

Зарегистрирован: 20 мар 08 13:46
Сообщения: 2
Проблема имеет место и для Intel MPI в сочетании с CUDA на примере gromacs.


Вернуться к началу
 Профиль  
 
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 3 ] 

Часовой пояс: UTC + 4 часа [ Летнее время ]


Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 2


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Перейти:  
Создано на основе phpBB® Forum Software © phpBB Group
Русская поддержка phpBB