ANSYS HPC: распараллеливание Fluent на миллион ядер!

Аватар пользователя Kirill Pestov
0 527

ANSYS CFD находится на пороге нового прорыва в области высокопроизводительных вычислений (HPC). В последнее десятилетие в технологии HPC наблюдаются значительные скачки производительности как по «глубине», так и по «широте». «Глубина» в данном случае обозначает масштабируемость на вычислительных кластерах с использованием 103, 104 и не так давно на 105 ядер. «Широта» относится к распространению технологии HPC на все этапы выполнения расчета, включая распараллеливание физических моделей, выполнение пре- и пост-обработки, а также процесс ввода/вывода данных. Тренд охватывает все релизы Fluent начиная с версии 6.3 и заканчивая 18-ой версией. Как можно видеть на нижнем рисунке, фактически зависимость является экспоненциальной. ANSYS Fluent установил стандарт для промышленных расчетов HPC CFD, несмотря на то, что есть и другие впечатляющие успехи в области масштабируемости программного обеспечения.

Между тем, в мире технология HPC развивалась неравномерно.  Крупные масштабируемые системы и более быстрые коммутаторы повысили эффективность использования ядер, в то время как более энергоэффективные процессоры, векторные архитектуры, GPGPU, облачные вычисления и т. д., привели к созданию разнообразных и устойчивых высокопроизводительных систем. Современные технологии HPC действительно представляют из себя сложную высокоэффективную систему, которая требует тщательной настройки программных компонентов. Из гибридного программирования для архитектур с распределенной и общей памятью, возникли системы с гетерогенной аппаратной вычислительной структурой, включая такие ускорители как GPGPU и Intel Xeon Phi, а также связанные библиотеки параллельных шаблонов. Основной задачей предстоящих лет является продолжение повышения масштабируемости и пропускной способности в этой новой вычислительной среде, для того чтобы удовлетворить растущие потребности промышленности в численном моделировании.

Сможет ли ANSYS Fluent несмотря на новые тенденции эффективно распараллеливаться на миллион ядер к 2020 году? Трудно себе представить увеличение масштабируемости до миллиона ядер всего через 3 года! Но все прогнозы говорят за то, что это вполне осуществимая задача даже за такой короткий промежуток времени. 

Оригинальный текст статьи: http://www.ansys-blog.com/hpc/

Добавить комментарий

Войдите или зарегистрируйтесь, чтобы отправлять комментарии