close

Вход

Забыли?

вход по аккаунту

код для вставкиСкачать
Институт вычислительной математики и математической геофизики СО РАН
Параллельный алгоритм
решения задач динамики заряженных
частиц с учетом балансировки
вычислительной нагрузки
Берендеев Е.А., Боронина М.А., Корнеев В.Д.
Параллельные вычислительные технологии, Ростов-на-Дону, 2014
Введение
С развитием вычислительной техники метод частиц получил широкое
распространение ввиду наличия внутреннего параллелизма и возможности
использования современных СуперЭВМ для решения сложных задач.
Существует ряд задач, где эффективность метода может существенно снизиться
вследствие неравномерности загрузки вычислительных узлов. В частности,
неравномерность может быть связана c
 неоднородным распределением частиц по процессорам
 неодинаковым количеством операций для каждой частицы в различных
процессорах
Создание параллельного алгоритма, обладающего высокой масштабируемостью,
является актуальной проблемой в области высокопроизводительных вычислений.
Мы предлагаем вниманию универсальный параллельный алгоритм высокой
масштабируемости для моделирования задач физики плазмы методом частиц, в
частности
 задачи динамики встречных ультрарелятивистских пучков заряженных частиц в
ускорителях
 задачи динамики плазменных электронов в ловушке с инверсными магнитными
пробками и мультипольными магнитными стенками.
Особенности моделирования
открытых магнитных ловушек
Величина магнитного поля
меняется от 50 Гс до 7 кГс
R, sm
Геометрия магнитной системы плазменной ловушки-мишени,
силовые линии магнитного поля.
Силовые линии магнитного поля
Z, sm
Траектория движения
частицы в пробкотроне
Плотность витков зависит от
скорости
частицы
и
от
величины магнитного поля.
Можно ввести адаптивный шаг
по времени: в каждой ячейке
(зависит
от
величины
магнитного
поля)
свой
постоянный шаг, который может
уменьшаться в зависимости от
скорости частицы.
Особенности моделирования
динамики встречных пучков
y
y
z
 Существенно неравномерное
распределение частиц
 Форма песочных часов
 Различные масштабы
z
 Большие значения фактора γ
 Трехмерность задачи
 Большое количество частиц
 Условная устойчивость
Уравнения
 ,
 ,
0
fe  ,
 , fe
 , fe
 ve
 Fe

 ,
t
r
p
 St{ fe }
1 H
rotE  
c t
4
1 E
rotH 
j
c
c t
divE  4 (ne e   ne e  )
divH  0
f i ,e
 f
D f i ,e
 f
 v i,e  Fi ,e i ,e  0,
 St{ f i ,e }
t
r
p
Dt
ne , 

fe  , dp
Vp
j
f
e

ve  e  fe  ve  e  dp
Vp
1


Fe  ,  qe  ,  E  ve  , , H  
c


pe  ,   e  , meve  ,
dpe  ,
 Fe  ,
dt
dre  ,
 ve  ,
dt
e 
 ,
1
1
ve2 ,
c2
Схема метода
t  t0 :

qj
1
 (r , t )   q j R(r , rj (t ))
V j
Hx
k
k
Hy
Hy
Hx
Hz
Hz
Hz
Hx
i
Ez
Ey
Hz
Ex
Ex
Ey
Hy
Hy
Hx
Ez
l
i
l
r , p, E, H
 m  12
m
H

H

1
 m 1
m
v 2  v 2
 m
m 1
r

r


1
1
m
m
j 2  j 2

1
 m
m
H  H 2
 m
m 1
E

E

Конечно-разностные схемы
H
m
1
2
H
m
1
2

E m1  E m

p
m
1
2
p

 j
 roth E m
m
1
2
 roth H
m
1
2
 Hzi , k , l  12  Hzi , k  1, l  12 Hyi , k  12 , l  Hyi , k  12 , l  1 



h
h
y
z


 Hxi  1 , k , l  Hxi  1 , k , l  1 Hzi , k , l  1  Hzi  1, k , l  1 
2
2
2
2 
roth H  



hz
hx


1
1
1
1
Hy
i
,
k

,
l

Hy
i

1,
k

,
l
Hx
i

,
k
,
l

Hx
i

,
k

1,
l


2
2
2
2



hx
hy


m
1
2
1

m
 m 12

2
v
v


 qi  E m  
,Hm


2


 

r m1  r m

v
m
1
2
Декомпозиция области
 ( x)
x
Nlocal proc 

jlocal area

jall area
do j  0, N 0 -1
N part , j
tj
N part , j
tj
* N all proc
 Npart ( j ) Npart (max) 
if 


Nproc
(
j
)
Nproc(max) 

enddo
Nproc(max)  Nproc(max)  1
max  j
Начальные условия
- вычисление пробных координат
- определение Ngp в каждой группе
- вычисление координат и других
значений
начальных
Получение начальных значений от 0-вого процессора
- вычисление ρg0
- send ρg0
- вычисление ρg0
- send ρg0
- вычисление ρg0
- send ρg0
- recv ρg0, ρ0=∑ ρg0 - recv ρg0, ρ0=∑ ρg0 - recv ρg0, ρ0=∑ ρg0
- вычисление E0
- вычисление E0
- вычисление E0
Обмен смежными значениями E0 между главными процессорами групп
bcast E0
bcast E0
bcast E0
Вычисление Hg-1/2
Вычисление Hg-1/2
Вычисление Hg-1/2
Цикл программы
- вычисление Hgm
- вычисление vm+1/2
- вычисление xm+1/2
- вычисление Hgm
- вычисление vm+1/2
- вычисление xm+1/2
- вычисление Hgm
- вычисление vm+1/2
- вычисление xm+1/2
Обмен параметрами частиц между процессорами соседних групп
- вычисление jgm+1/2
- send jgm+1/2
- вычисление jgm+1/2
- send jgm+1/2
- вычисление jgm+1/2
- send jgm+1/2
добавление /удаление частиц
(ионизация / рекомбинация)
добавление /удаление частиц
(ионизация / рекомбинация)
добавление /удаление частиц
(ионизация / рекомбинация)
- вычисление ρgm+1/2
- send ρgm+1/2
- вычисление ρgm+1/2
- send ρgm+1/2
- вычисление ρgm+1/2
- send ρgm+1/2
- recv ρg0,
- вычисление E0|Г
ρ0=∑ρg0
- recv ρg0,
- вычисление E0|Г
ρ0=∑ρg0
- recv ρg0,
- вычисление E0|Г
ρ0=∑ρg0
Обмен смежными значениями Em+1|Г между главными процессорами групп
Вычисление Em+1
Вычисление Em+1
Вычисление Em+1
Обмен смежными значениями Em+1 между главными процессорами групп
bcast Em+1, Hm+1/2
bcast Em+1, Hm+1/2
bcast Em+1, Hm+1/2
Задание граничных
условий для Em+1
- gather jgm+1/2,
jm+1/2=∑jgm+1/2 - gather jgm+1/2,
jm+1/2=∑jgm+1/2 - gather jgm+1/2,
jm+1/2=∑jgm+1/2
- вычисление Hm+1/2
- вычисление Hm+1/2
- вычисление Hm+1/2
Время счета
size0
size
500τ, с
jmax, 106, t=0
jmax, 106
6
6
98
475025
500162
6
10
39
159123
167167
10
10
93
396014
497950
10
12
49
198030
248795
12
12
84
120590
494225
6
12
37
119283
125476
size
Nmin
Nmax
τ, с
T/T1024
1024
2048
4096
8192
2
3
5
12
32
64
129
258
1.411
0.778
0.362
0.183
1
1.81
3.87
7.71
Динамика одного пучка
Эффективность
распараллеливания
Eff
TN
Eff 
N0
TN0
Электрическое поле пучка
Ex
size0  5
Сетка
60 х 60 х 60
y
z
N0
N
Eff
size0  10
N0
N
Частицы
105, 106, 107
z
Динамика плазмы в магнитной ловушке
Генерация плазмы:
динамика плотности
катодных электронов
Траектории электронов мишенной плазмы
Параметры расчёта:
Сетка 6842х996
Общее число модельных частиц 5 242 880 000
Общее число процессорных ядер 8192, время счёта 24 часа
Траектории движения электронов фона
Траектории электронов высокой энергии,
стартующих с катода.
Белым цветом показаны общие траектории
для всех электронов
Заключение

Реализован параллельный алгоритм решения задач динамики плазмы,
основанный на модификации эйлерово-лагранжевой декомпозиции в
случае неравномерного распределения частиц по пространству и
времени.

В качестве примеров применения разработанного алгоритма были
рассмотрены две задачи - динамики встречных ультрарелятивистских
пучков заряженных частиц в ускорителях и динамики плазменных
электронов в ловушке с инверсными магнитными пробками и
мультипольными магнитными стенками.

Применение алгоритма в обоих случаях позволило достичь высокой
масштабируемости и увеличить число частиц в расчетах до 1010.
Использование большого количества частиц даст возможность
проводить расчеты с другими конфигурациями полей и частиц, и
достигать большей точности решений
Спасибо
за внимание!
1/--страниц
Пожаловаться на содержимое документа