Здравствуйте. уважаемые форумчане
Ставлю расчёт на досчитывание ступени компрессора и столкнулся с такой ошибкой 001100279. Читал на форуме, что она связанна с распараллеливанием. На ПК считаю и ставлю Platform MPI Local Parallel. До ошибки значение КПД резко начинает расти. Ниже прикладываю невязки и мониторинг кпд. Обратил также внимание, что в новом ансисе появилось ещё intel mpi local parallel. В чём разница между Platform MPI Local Parallel и intel mpi local parallel?
Заранее спасибо за ответы
Parallel run: Received message from slave
-----------------------------------------
Slave partition : 7
Slave routine : ErrAction
Master location : Message Handler
Message label : 001100279
Message follows below - :
+--------------------------------------------------------------------+
| ERROR #001100279 has occurred in subroutine ErrAction. |
| Message: |
| Floating point exception: Overflow |
| |
| |
| |
| |
| |
+--------------------------------------------------------------------+
Parallel run: Received message from slave
-----------------------------------------
Slave partition : 7
Slave routine : ErrAction
Master location : Message Handler
Message label : 001100279
Message follows below - :
+--------------------------------------------------------------------+
| ERROR #001100279 has occurred in subroutine ErrAction. |
| Message: |
| Stopped in routine FPX: C_FPX_HANDLER |
| |
| |
| |
| |
| |
+--------------------------------------------------------------------+
+--------------------------------------------------------------------+
| ERROR #001100279 has occurred in subroutine MESG_RETRIEVE. |
| Message: |
| Stopping the run due to error(s) reported above |
| |
| |
| |
| |
| |
+--------------------------------------------------------------------+
+--------------------------------------------------------------------+
| An error has occurred in cfx5solve: |
| |
| The ANSYS CFX solver exited with return code 1. No results file |
| has been created. |
+--------------------------------------------------------------------+
End of solution stage.
+--------------------------------------------------------------------+
| The following transient and backup files written by the ANSYS CFX |
| solver have been saved in the directory |
| D:\Ansys\CFX\stupen_110\stupen_110_001: |
| |
| 300_full.bak, 200_full.bak |
+--------------------------------------------------------------------+
+--------------------------------------------------------------------+
| The following user files have been saved in the directory |
| D:\Ansys\CFX\stupen_110\stupen_110_001: |
| |
| pids, mon |
+--------------------------------------------------------------------+
+--------------------------------------------------------------------+
| Warning! |
| |
| After waiting for 60 seconds, 1 solver manager process(es) appear |
| not to have noticed that this run has ended. You may get errors |
| removing some files if they are still open in the solver manager. |
+--------------------------------------------------------------------+
This run of the ANSYS CFX Solver has finished.
Здравствуйте!
Распараллеливание тут не при делах, просто у вас решение неустойчиво. Предлагаю такую последовательность дальнейших действий:
1) Поиграйте масштабом времени.
2) Если не поможет, измените тип ГУ на Exit Corrected Mass Flow Rate. Если старая версия, то считайте левую часть ветки с расходом на выходе, а правую - со статикой.
3) Если и это не поможет, то вы, скорее всего, приблизились к границам газодинамической устойчивости. Тогда переходите на нестационар.
Масштаб времени увеличивать? На текущей задаче стоит 1e-4
уменьшать
Добавить комментарий