|
||||||||||||
|
В осеннем семестре 2024/2025 учебного года специальный семинар свою работу по четвергам в 16.20 в ауд. 582. Первое заседание семинара состоится 12 сентября. Разработка программ для высокопроизводительных кластеров и других параллельных систем с распределенной памятью продолжает оставаться исключительно сложным делом, доступным узкому кругу специалистов и крайне трудоемким даже для них. Основная причина — это низкий уровень современной технологии автоматизации разработки параллельных программ. В настоящее время практически все параллельные программы для многоядерных кластеров (SMP-кластеров) разрабатываются с использованием низкоуровневых средств передачи сообщений (MPI, SHMEM). Такие программы трудно разрабатывать, сопровождать и повторно использовать при создании новых программ. Появление кластеров с гетерогенными узлами, использующих в качестве ускорителей графические процессоры (ГПУ), еще более усложнило разработку программ, поскольку потребовало использовать, помимо низкоуровневых технологий MPI и SHMEM, еще и низкоуровневую технологию CUDA или OpenCL. На подходе новые процессоры с большим количеством ядер (например, Вполне естественно, что прикладной программист хотел бы получить либо инструмент, автоматически преобразующий его последовательную программу в параллельную программу, либо высокоуровневый язык параллельного программирования, обеспечивающий эффективное использование современных параллельных систем. Проведенные в Поэтому исследователи сосредоточились на двух направлениях:
Работа семинара тесно связана с этими исследованиями. На 3 курсе студенты получают необходимую теоретическую подготовку, изучая проблемы параллельного программирования и соответствующие подходы к их решению, а также приобретают опыт разработки параллельных программ для распределенных систем (MPI, OpenMP, CUDA). Студенты 4-5 курсов и аспиранты участвуют в исследованиях, направленных на разработку инструментов параллельного программирования, таких как компиляторы, отладчики, анализаторы и предсказатели производительности параллельных программ, средства автоматизации распараллеливания последовательных программ. Базой для многих исследовательских проектов является система DVM, разработанная в Институте прикладной математики им М.В. Келдыша РАН при активном участии студентов и аспирантов спецсеминара. Разрабатываемые студентами и аспирантами инструменты тестируются и используются на таких суперкомпьютерах, как «Ломоносов» (НИВЦ МГУ), МВС-100K (МСЦ РАН), K-100 (ИПМ им. М.В. Келдыша РАН), и других ЭВМ. |
|||||||||||
|