Что такое findslide.org?

FindSlide.org - это сайт презентаций, докладов, шаблонов в формате PowerPoint.


Для правообладателей

Обратная связь

Email: Нажмите что бы посмотреть 

Яндекс.Метрика

Презентация на тему Многопоточное программирование в OpenMP

Содержание

Процессы и потокиПроцесс – это среда выполнения задачи (программы).Процесс создаётся ОС и содержит информацию о программных ресурсах и текущем состоянии выполнения программы.
Многопоточное программирование в OpenMPКиреев СергейИВМиМГ Процессы и потокиПроцесс – это среда выполнения задачи (программы).Процесс создаётся ОС и Процессы и потокиПоток – это «облегченный процесс».Создается в рамках процесса,Имеет свой поток Многопоточное программированиеИспользуется для создания параллельных программ для систем с общей памятьюИ для других целей… OpenMP – это…Стандарт интерфейса для многопоточного программирования над общей памятьюНабор средств для Модель программированияFork-join параллелизмЯвное указание параллельных секцийПоддержка вложенного параллелизмаПоддержка динамических потоков Пример: Объявление параллельной секции#include int main(){  // последовательный код #pragma omp Пример: 			Hello, World!#include #include int main(){  printf(“Hello, World!\n”); #pragma omp parallel Задание числа потоковПеременная окружения OMP_NUM_THREADS		>env OMP_NUM_THREADS=4 ./a.outФункция omp_set_num_threads(int)		omp_set_num_threads(4);		#pragma omp parallel		{ . . Способы разделения работы между потоками Пример: 		Директива omp for#include #include int main(){ int i; #pragma omp parallel Пример: 		Директива omp for#include #include int main(){ int i; #pragma omp parallel for  for (i=0;i Пример: 		Директива omp sections#include #include int main(){ int i; #pragma omp parallel Пример: 		Директива omp single#include #include int main(){ int i; #pragma omp parallel Пример: 		Директива omp master#include #include int main(){ int i; #pragma omp parallel Способы разделения работы между потокамиПараллельное исполнение цикла for	#pragma omp for параметры:schedule - Пример: 		Директива omp for#include #include int main(){ int i; #pragma omp parallel Области видимости переменныхПеременные, объявленные внутри параллельного блока, являются локальными для потока:		#pragma omp Области видимости переменныхПеременные, объявленные вне параллельного блока, определяются параметрами директив OpenMP:privatefirstprivatelastprivateshareddefaultreductionthreadprivatecopying Области видимости переменныхПеременные, объявленные вне параллельного блока, определяются параметрами директив OpenMP:privatefirstprivatelastprivateshareddefaultreductionthreadprivatecopyingСвоя локальная Области видимости переменныхПеременные, объявленные вне параллельного блока, определяются параметрами директив OpenMP:privatefirstprivatelastprivateshareddefaultreductionthreadprivatecopyingЛокальная переменная Области видимости переменныхПеременные, объявленные вне параллельного блока, определяются параметрами директив OpenMP:privatefirstprivatelastprivateshareddefaultreductionthreadprivatecopyingЛокальная переменная Области видимости переменныхПеременные, объявленные вне параллельного блока, определяются параметрами директив OpenMP:privatefirstprivatelastprivateshareddefaultreductionthreadprivatecopyingРазделяемая (общая) Области видимости переменныхПеременные, объявленные вне параллельного блока, определяются параметрами директив OpenMP:privatefirstprivatelastprivateshareddefaultreductionthreadprivatecopyingЗадание области Области видимости переменныхПеременные, объявленные вне параллельного блока, определяются параметрами директив OpenMP:privatefirstprivatelastprivateshareddefaultreductionthreadprivatecopyingПеременная для Области видимости переменныхПеременные, объявленные вне параллельного блока, определяются параметрами директив OpenMP:privatefirstprivatelastprivateshareddefaultreductionthreadprivatecopyingОбъявление глобальных Области видимости переменныхПеременные, объявленные вне параллельного блока, определяются параметрами директив OpenMP:privatefirstprivatelastprivateshareddefaultreductionthreadprivatecopyingОбъявление глобальных Синхронизация потоковДирективы синхронизации потоков:mastercriticalbarrieratomicflushorderedБлокировкиomp_lock_t Синхронизация потоковДирективы синхронизации потоков:mastercriticalbarrieratomicflushorderedВыполнение кода только главным потоком#pragma omp parallel{  //code Синхронизация потоковДирективы синхронизации потоков:mastercriticalbarrieratomicflushorderedКритическая секцияint x;x = 0;#pragma omp parallel{  #pragma Синхронизация потоковДирективы синхронизации потоков:mastercriticalbarrieratomicflushorderedБарьерint i;#pragma omp parallel for for (i=0;i Синхронизация потоковДирективы синхронизации потоков:mastercriticalbarrieratomicflushorderedАтомарная операцияint i,index[N],x[M];#pragma omp parallel for \ Синхронизация потоковДирективы синхронизации потоков:mastercriticalbarrieratomicflushorderedСогласование значения переменных между потокамиint x = 0;#pragma omp Синхронизация потоковДирективы синхронизации потоков:mastercriticalbarrieratomicflushorderedВыделение упорядоченного блока в циклеint i,j,k;double x;#pragma omp parallel for ordered for (i=0;i Синхронизация потоковБлокировкиomp_lock_tvoid omp_init_lock(omp_lock_t *lock)void omp_destroy_lock(omp_lock_t *lock)void omp_set_lock(omp_lock_t *lock)void omp_unset_lock(omp_lock_t *lock)int omp_test_lock(omp_lock_t *lock)omp_nest_lock_tvoid Пример: Использование блокировок#include #include #include int x[1000];int main(){ int i,max; omp_lock_t lock; omp_init_lock(&lock); for (i=0;i Функции OpenMPvoid omp_set_num_threads(int num_threads) int omp_get_num_threads(void) int omp_get_max_threads(void) int omp_get_thread_num(void) int omp_get_num_procs(void) Порядок создания параллельных программ Написать и отладить последовательную программуДополнить программу директивами OpenMPСкомпилировать Пример программы: сложение двух векторовПоследовательная программа#define N 1000double x[N],y[N],z[N];int main(){ int i; for (i=0;i Пример программы: сложение двух векторовПараллельная программа#include#define N 1000double x[N],y[N],z[N];int main(){ int i; int num; for (i=0;i Пример программы: решение краевой задачиМетод Зейделяdo { dmax = 0; // максимальное Пример программы: решение краевой задачиomp_lock_t dmax_lock;omp_init_lock (&dmax_lock);do { dmax = 0; // Пример программы: решение краевой задачиomp_lock_t dmax_lock;omp_init_lock (&dmax_lock);do { dmax = 0; // Пример программы: решение краевой задачиomp_lock_t dmax_lock;omp_init_lock(&dmax_lock);do { dmax = 0; // максимальное Пример программы: решение краевой задачиomp_lock_t dmax_lock;omp_init_lock(&dmax_lock);do { dmax = 0; // максимальное Пример программы: решение краевой задачиomp_lock_t dmax_lock;omp_init_lock(&dmax_lock);do { dmax = 0; // максимальное Пример программы: решение краевой задачиomp_lock_t dmax_lock;omp_init_lock(&dmax_lock);do { dmax = 0; // максимальное Пример программы: решение краевой задачиДругие способы устранения зависимостейЧетно-нечетное упорядочиваниеВолновые схемы Пример программы: решение краевой задачиomp_lock_t dmax_lock;omp_init_lock(&dmax_lock);do { // максимальное изменение значений u Пример программы: решение краевой задачиВолновая схема с разбиением на блоки Рекомендуемая литература по OpenMPhttp://openmp.orghttp://www.parallel.ru/tech/tech_dev/openmp.htmlhttps://computing.llnl.gov/tutorials/openMP/
Слайды презентации

Слайд 2 Процессы и потоки
Процесс – это среда выполнения задачи

Процессы и потокиПроцесс – это среда выполнения задачи (программы).Процесс создаётся ОС

(программы).
Процесс создаётся ОС и содержит информацию о программных ресурсах

и текущем состоянии выполнения программы.

Слайд 3 Процессы и потоки
Поток – это «облегченный процесс».
Создается в

Процессы и потокиПоток – это «облегченный процесс».Создается в рамках процесса,Имеет свой

рамках процесса,
Имеет свой поток управления,
Разделяет ресурсы процесса-родителя с другими

потоками,
Погибает, если погибает родительский процесс.

Слайд 4 Многопоточное программирование
Используется для создания параллельных программ для систем

Многопоточное программированиеИспользуется для создания параллельных программ для систем с общей памятьюИ для других целей…

с общей памятью






И для других целей…


Слайд 5 OpenMP – это…
Стандарт интерфейса для многопоточного программирования над

OpenMP – это…Стандарт интерфейса для многопоточного программирования над общей памятьюНабор средств

общей памятью

Набор средств для языков C/C++ и Fortran:
Директивы компилятора
#pragma

omp …
Библиотечные подпрограммы
get_num_threads()
Переменные окружения
OMP_NUM_THREADS

Слайд 6 Модель программирования
Fork-join параллелизм





Явное указание параллельных секций
Поддержка вложенного параллелизма
Поддержка

Модель программированияFork-join параллелизмЯвное указание параллельных секцийПоддержка вложенного параллелизмаПоддержка динамических потоков

динамических потоков


Слайд 7 Пример: Объявление параллельной секции
#include
int main()
{
// последовательный

Пример: Объявление параллельной секции#include int main(){ // последовательный код #pragma omp

код
#pragma omp parallel
{
// параллельный код

}
// последовательный код

return 0;
}

Слайд 8 Пример: Hello, World!
#include
#include
int main()
{
printf(“Hello, World!\n”);

Пример: 			Hello, World!#include #include int main(){ printf(“Hello, World!\n”); #pragma omp parallel

#pragma omp parallel
{ int i,n;
i =

omp_get_thread_num();
n = omp_get_num_threads();
printf(“I’m thread %d of %d\n”,i,n);
}
return 0;
}

Слайд 9 Задание числа потоков
Переменная окружения OMP_NUM_THREADS
>env OMP_NUM_THREADS=4 ./a.out
Функция omp_set_num_threads(int)
omp_set_num_threads(4);
#pragma

Задание числа потоковПеременная окружения OMP_NUM_THREADS		>env OMP_NUM_THREADS=4 ./a.outФункция omp_set_num_threads(int)		omp_set_num_threads(4);		#pragma omp parallel		{ .

omp parallel
{ . . .
}
Параметр num_threads
#pragma omp parallel num_threads(4)
{

. . .
}

Слайд 10 Способы разделения работы между потоками

Способы разделения работы между потоками

Слайд 11 Пример: Директива omp for
#include
#include
int main()
{ int i;

Пример: 		Директива omp for#include #include int main(){ int i; #pragma omp

#pragma omp parallel
{
#pragma omp for

for (i=0;i<1000;i++)
printf(“%d ”,i);
}
return 0;
}

Слайд 12 Пример: Директива omp for
#include
#include
int main()
{ int i;

Пример: 		Директива omp for#include #include int main(){ int i; #pragma omp parallel for for (i=0;i

#pragma omp parallel for
for (i=0;i

printf(“%d ”,i);

return 0;
}

Слайд 13 Пример: Директива omp sections
#include
#include
int main()
{ int i;

Пример: 		Директива omp sections#include #include int main(){ int i; #pragma omp

#pragma omp parallel sections private(i)
{
#pragma omp

section
printf(“1st half\n”);
for (i=0;i<500;i++) printf(“%d ”);
#pragma omp section
printf(“2nd half\n”);
for (i=501;i<1000;i++) printf(“%d ”);
}
return 0;
}

Слайд 14 Пример: Директива omp single
#include
#include
int main()
{ int i;

Пример: 		Директива omp single#include #include int main(){ int i; #pragma omp

#pragma omp parallel private(i)
{
#pragma omp for

for (i=0;i<1000;i++) printf(“%d ”);
#pragma omp single
printf(“I’m thread %d!\n”,get_thread_num());
#pragma omp for
for (i=0;i<1000;i++) printf(“%d ”);
}
return 0;
}

Слайд 15 Пример: Директива omp master
#include
#include
int main()
{ int i;

Пример: 		Директива omp master#include #include int main(){ int i; #pragma omp

#pragma omp parallel private(i)
{
#pragma omp for

for (i=0;i<1000;i++) printf(“%d ”);
#pragma omp master
printf(“I’m Master!\n”)
#pragma omp for
for (i=0;i<1000;i++) printf(“%d ”);
}
return 0;
}

Слайд 16 Способы разделения работы между потоками
Параллельное исполнение цикла for
#pragma

Способы разделения работы между потокамиПараллельное исполнение цикла for	#pragma omp for параметры:schedule

omp for параметры:
schedule - распределения итераций цикла между потоками
schedule(static,n)

– статическое распределение
schedule(dynamic,n) – динамическое распределение
schedule(guided,n) – управляемое распределение
schedule(runtime) – определяется OMP_SCHEDULE
nowait – отключение синхронизации в конце цикла
ordered – выполнение итераций в последовательном порядке
Параметры области видимости переменных…

Слайд 17 Пример: Директива omp for
#include
#include
int main()
{ int i;

Пример: 		Директива omp for#include #include int main(){ int i; #pragma omp

#pragma omp parallel private(i)
{
#pragma omp for

schedule(static,10) nowait
for (i=0;i<1000;i++) printf(“%d ”,i);
#pragma omp for schedule(dynamic,1)
for (i=‘a’;i<=‘z’;i++) printf(“%c ”,i);
}
return 0;
}

Слайд 18 Области видимости переменных
Переменные, объявленные внутри параллельного блока, являются

Области видимости переменныхПеременные, объявленные внутри параллельного блока, являются локальными для потока:		#pragma

локальными для потока:

#pragma omp parallel
{
int num;
num =

omp_get_thread_num()
printf(“Поток %d\n”,num);
}

Слайд 19 Области видимости переменных
Переменные, объявленные вне параллельного блока, определяются

Области видимости переменныхПеременные, объявленные вне параллельного блока, определяются параметрами директив OpenMP:privatefirstprivatelastprivateshareddefaultreductionthreadprivatecopying

параметрами директив OpenMP:
private
firstprivate
lastprivate
shared
default
reduction
threadprivate
copying


Слайд 20 Области видимости переменных
Переменные, объявленные вне параллельного блока, определяются

Области видимости переменныхПеременные, объявленные вне параллельного блока, определяются параметрами директив OpenMP:privatefirstprivatelastprivateshareddefaultreductionthreadprivatecopyingСвоя

параметрами директив OpenMP:
private
firstprivate
lastprivate
shared
default
reduction
threadprivate
copying
Своя локальная переменная в каждом потоке

int num;
#pragma

omp parallel private(num)
{
num=omp_get_thread_num()
printf(“%d\n”,num);
}


Слайд 21 Области видимости переменных
Переменные, объявленные вне параллельного блока, определяются

Области видимости переменныхПеременные, объявленные вне параллельного блока, определяются параметрами директив OpenMP:privatefirstprivatelastprivateshareddefaultreductionthreadprivatecopyingЛокальная

параметрами директив OpenMP:
private
firstprivate
lastprivate
shared
default
reduction
threadprivate
copying
Локальная переменная с инициализацией

int num=5;
#pragma omp parallel

\
firstprivate(num)
{
printf(“%d\n”,num);
}


Слайд 22 Области видимости переменных
Переменные, объявленные вне параллельного блока, определяются

Области видимости переменныхПеременные, объявленные вне параллельного блока, определяются параметрами директив OpenMP:privatefirstprivatelastprivateshareddefaultreductionthreadprivatecopyingЛокальная

параметрами директив OpenMP:
private
firstprivate
lastprivate
shared
default
reduction
threadprivate
copying
Локальная переменная с сохранением последнего значения
(в последовательном

исполнении)

int i,j;
#pragma omp parallel for \
lastprivate(j)
for (i=0;i<100;i++) j=i;

printf(“Последний j = %d\n”,j);

Слайд 23 Области видимости переменных
Переменные, объявленные вне параллельного блока, определяются

Области видимости переменныхПеременные, объявленные вне параллельного блока, определяются параметрами директив OpenMP:privatefirstprivatelastprivateshareddefaultreductionthreadprivatecopyingРазделяемая

параметрами директив OpenMP:
private
firstprivate
lastprivate
shared
default
reduction
threadprivate
copying
Разделяемая (общая) переменная

int i,j;

#pragma omp parallel for

\
shared(j)
for (i=0;i<100;i++) j=i;

printf(“j = %d\n”,j);


Слайд 24 Области видимости переменных
Переменные, объявленные вне параллельного блока, определяются

Области видимости переменныхПеременные, объявленные вне параллельного блока, определяются параметрами директив OpenMP:privatefirstprivatelastprivateshareddefaultreductionthreadprivatecopyingЗадание

параметрами директив OpenMP:
private
firstprivate
lastprivate
shared
default
reduction
threadprivate
copying
Задание области видимости не указанных явно переменных

int

i,k,n=2;
#pragma omp parallel shared(n) \
default(private)
{
i = omp_get_thread_num() / n;
k = omp_get_thread_num() % n;
printf(“%d %d %d\n”,i,k,n);
}

Слайд 25 Области видимости переменных
Переменные, объявленные вне параллельного блока, определяются

Области видимости переменныхПеременные, объявленные вне параллельного блока, определяются параметрами директив OpenMP:privatefirstprivatelastprivateshareddefaultreductionthreadprivatecopyingПеременная

параметрами директив OpenMP:
private
firstprivate
lastprivate
shared
default
reduction
threadprivate
copying
Переменная для выполнения редукционной операции

int i,s=0;
#pragma omp

parallel for \
reduction(+:s)
for (i=0;i<100;i++)
s += i;

printf(“Sum: %d\n”,s);


Слайд 26 Области видимости переменных
Переменные, объявленные вне параллельного блока, определяются

Области видимости переменныхПеременные, объявленные вне параллельного блока, определяются параметрами директив OpenMP:privatefirstprivatelastprivateshareddefaultreductionthreadprivatecopyingОбъявление

параметрами директив OpenMP:
private
firstprivate
lastprivate
shared
default
reduction
threadprivate
copying
Объявление глобальных переменных локальными для потоков

int x;
#pragma

omp threadprivate(x)

int main()
{
. . .
}

Слайд 27 Области видимости переменных
Переменные, объявленные вне параллельного блока, определяются

Области видимости переменныхПеременные, объявленные вне параллельного блока, определяются параметрами директив OpenMP:privatefirstprivatelastprivateshareddefaultreductionthreadprivatecopyingОбъявление

параметрами директив OpenMP:
private
firstprivate
lastprivate
shared
default
reduction
threadprivate
copying
Объявление глобальных переменных локальными для потоков c

инициализацией

int x;
#pragma omp threadprivate(x)
#pragma omp copyin(x)
int main()
{
. . .
}

Слайд 28 Синхронизация потоков
Директивы синхронизации потоков:
master
critical
barrier
atomic
flush
ordered
Блокировки
omp_lock_t

Синхронизация потоковДирективы синхронизации потоков:mastercriticalbarrieratomicflushorderedБлокировкиomp_lock_t

Слайд 29 Синхронизация потоков
Директивы синхронизации потоков:
master
critical
barrier
atomic
flush
ordered

Выполнение кода только главным потоком

#pragma

Синхронизация потоковДирективы синхронизации потоков:mastercriticalbarrieratomicflushorderedВыполнение кода только главным потоком#pragma omp parallel{ //code

omp parallel
{
//code
#pragma omp master
{

// critical code
}
// code
}

Слайд 30 Синхронизация потоков
Директивы синхронизации потоков:
master
critical
barrier
atomic
flush
ordered

Критическая секция

int x;
x = 0;

#pragma

Синхронизация потоковДирективы синхронизации потоков:mastercriticalbarrieratomicflushorderedКритическая секцияint x;x = 0;#pragma omp parallel{ #pragma

omp parallel
{
#pragma omp critical
x =

x + 1;
}


Слайд 31 Синхронизация потоков
Директивы синхронизации потоков:
master
critical
barrier
atomic
flush
ordered

Барьер

int i;

#pragma omp parallel for

Синхронизация потоковДирективы синхронизации потоков:mastercriticalbarrieratomicflushorderedБарьерint i;#pragma omp parallel for for (i=0;i

for (i=0;i

omp barrier
}



Слайд 32 Синхронизация потоков
Директивы синхронизации потоков:
master
critical
barrier
atomic
flush
ordered

Атомарная операция

int i,index[N],x[M];

#pragma omp parallel

Синхронизация потоковДирективы синхронизации потоков:mastercriticalbarrieratomicflushorderedАтомарная операцияint i,index[N],x[M];#pragma omp parallel for \   shared(index,x) for (i=0;i

for \
shared(index,x)
for

(i=0;i {
#pragma omp atomic
x[index[i]] += count(i);
}


Слайд 33 Синхронизация потоков
Директивы синхронизации потоков:
master
critical
barrier
atomic
flush
ordered

Согласование значения переменных между потоками
int

Синхронизация потоковДирективы синхронизации потоков:mastercriticalbarrieratomicflushorderedСогласование значения переменных между потокамиint x = 0;#pragma

x = 0;
#pragma omp parallel sections \

shared(x)
{
#pragma omp section
{ x=1;
#pragma omp flush
}
#pragma omp section
while (!x);
}

Слайд 34 Синхронизация потоков
Директивы синхронизации потоков:
master
critical
barrier
atomic
flush
ordered

Выделение упорядоченного блока в цикле

int

Синхронизация потоковДирективы синхронизации потоков:mastercriticalbarrieratomicflushorderedВыделение упорядоченного блока в циклеint i,j,k;double x;#pragma omp parallel for ordered for (i=0;i

i,j,k;
double x;
#pragma omp parallel for ordered
for (i=0;i

k = rand(); x = 1.0;
for (j=0;j printf(“No order: %d\n”,i);
#pragma omp ordered
printf(“Order: %d\n”,i);
}

Слайд 35 Синхронизация потоков
Блокировки
omp_lock_t
void omp_init_lock(omp_lock_t *lock)
void omp_destroy_lock(omp_lock_t *lock)
void omp_set_lock(omp_lock_t *lock)
void

Синхронизация потоковБлокировкиomp_lock_tvoid omp_init_lock(omp_lock_t *lock)void omp_destroy_lock(omp_lock_t *lock)void omp_set_lock(omp_lock_t *lock)void omp_unset_lock(omp_lock_t *lock)int omp_test_lock(omp_lock_t

omp_unset_lock(omp_lock_t *lock)
int omp_test_lock(omp_lock_t *lock)
omp_nest_lock_t
void omp_init_nest_lock(omp_nest_lock_t *lock)
void omp_destroy_nest__lock(omp_nest_lock_t *lock)
void omp_set_nest__lock(omp_nest_lock_t

*lock)
void omp_unset_nest__lock(omp_nest_lock_t *lock)
int omp_test_nest__lock(omp_nest_lock_t *lock)

Слайд 36 Пример: Использование блокировок
#include
#include
#include
int x[1000];
int main()
{ int

Пример: Использование блокировок#include #include #include int x[1000];int main(){ int i,max; omp_lock_t lock; omp_init_lock(&lock); for (i=0;i

i,max;
omp_lock_t lock;
omp_init_lock(&lock);
for (i=0;i

x[0];
#pragma omp parallel for shared(x,lock)
for(i=0;i<1000;i++)
{ omp_set_lock(&lock);
if (x[i]>max) max=x[i];
omp_set_unlock(&lock);
}
omp_destroy_lock(&lock);
return 0;
}

Слайд 37 Функции OpenMP
void omp_set_num_threads(int num_threads)
int omp_get_num_threads(void)
int omp_get_max_threads(void)

Функции OpenMPvoid omp_set_num_threads(int num_threads) int omp_get_num_threads(void) int omp_get_max_threads(void) int omp_get_thread_num(void) int


int omp_get_thread_num(void)
int omp_get_num_procs(void)
int omp_in_parallel(void)
void omp_set_dynamic(int dynamic_threads)


int omp_get_dynamic(void)
void omp_set_nested(int nested)
int omp_get_nested (void)
double omp_get_wtick(void)
Функции работы с блокировками

Слайд 38 Порядок создания параллельных программ
Написать и отладить последовательную

Порядок создания параллельных программ Написать и отладить последовательную программуДополнить программу директивами

программу
Дополнить программу директивами OpenMP
Скомпилировать программу компилятором с поддержкой OpenMP
Задать

переменные окружения
Запустить программу

Слайд 39 Пример программы: сложение двух векторов
Последовательная программа

#define N 1000
double

Пример программы: сложение двух векторовПоследовательная программа#define N 1000double x[N],y[N],z[N];int main(){ int i; for (i=0;i

x[N],y[N],z[N];
int main()
{ int i;

for (i=0;i

z[i]=x[i]+y[i];
return 0;
}

Слайд 40 Пример программы: сложение двух векторов
Параллельная программа
#include
#define N 1000
double

Пример программы: сложение двух векторовПараллельная программа#include#define N 1000double x[N],y[N],z[N];int main(){ int i; int num; for (i=0;i

x[N],y[N],z[N];
int main()
{ int i;
int num;
for (i=0;i

num = omp_get_num_threads();
#pragma omp parallel for schedule(static,N/num)
for (i=0;i z[i]=x[i]+y[i];
return 0;
}

Слайд 41 Пример программы: решение краевой задачи
Метод Зейделя

do {
dmax =

Пример программы: решение краевой задачиМетод Зейделяdo { dmax = 0; //

0; // максимальное изменение значений u
for ( i=1;

i for ( j=1; j temp = u[i][j];
u[i][j] = 0.25*(u[i-1][j]+u[i+1][j]+
u[i][j-1]+u[i][j+1]–h*h*f[i][j]);
dm = fabs(temp-u[i][j]);
if ( dmax < dm ) dmax = dm;
}
} while ( dmax > eps );

Слайд 42 Пример программы: решение краевой задачи
omp_lock_t dmax_lock;
omp_init_lock (&dmax_lock);
do {
dmax

Пример программы: решение краевой задачиomp_lock_t dmax_lock;omp_init_lock (&dmax_lock);do { dmax = 0;

= 0; // максимальное изменение значений u
#pragma omp

parallel for shared(u,n,dmax) private(i,temp,d)
for ( i=1; i #pragma omp parallel for shared(u,n,dmax) private(j,temp,d)
for ( j=1; j temp = u[i][j];
u[i][j] = 0.25*(u[i-1][j]+u[i+1][j]+
u[i][j-1]+u[i][j+1]–h*h*f[i][j]);
d = fabs(temp-u[i][j]);
omp_set_lock(&dmax_lock);
if ( dmax < d ) dmax = d;
omp_unset_lock(&dmax_lock);
} // конец вложенной параллельной области
} // конец внешней параллельной области
} while ( dmax > eps );

Слайд 43 Пример программы: решение краевой задачи
omp_lock_t dmax_lock;
omp_init_lock (&dmax_lock);
do {
dmax

Пример программы: решение краевой задачиomp_lock_t dmax_lock;omp_init_lock (&dmax_lock);do { dmax = 0;

= 0; // максимальное изменение значений u
#pragma omp

parallel for shared(u,n,dmax) private(i,temp,d)
for ( i=1; i #pragma omp parallel for shared(u,n,dmax) private(j,temp,d)
for ( j=1; j temp = u[i][j];
u[i][j] = 0.25*(u[i-1][j]+u[i+1][j]+
u[i][j-1]+u[i][j+1]–h*h*f[i][j]);
d = fabs(temp-u[i][j])
omp_set_lock(&dmax_lock);
if ( dmax < d ) dmax = d;
omp_unset_lock(&dmax_lock);
} // конец вложенной параллельной области
} // конец внешней параллельной области
} while ( dmax > eps );

Синхронизация – узкое место


Слайд 44 Пример программы: решение краевой задачи
omp_lock_t dmax_lock;
omp_init_lock(&dmax_lock);
do {
dmax =

Пример программы: решение краевой задачиomp_lock_t dmax_lock;omp_init_lock(&dmax_lock);do { dmax = 0; //

0; // максимальное изменение значений u
#pragma omp parallel

for shared(u,n,dmax) private(i,temp,d,dm)
for ( i=1; i dm = 0;
for ( j=1; j temp = u[i][j];
u[i][j] = 0.25*(u[i-1][j]+u[i+1][j]+
u[i][j-1]+u[i][j+1]–h*h*f[i][j]);
d = fabs(temp-u[i][j])
if ( dm < d ) dm = d;
}
omp_set_lock(&dmax_lock);
if ( dmax < dm ) dmax = dm;
omp_unset_lock(&dmax_lock);
}
} // конец параллельной области
} while ( dmax > eps );

Слайд 45 Пример программы: решение краевой задачи
omp_lock_t dmax_lock;
omp_init_lock(&dmax_lock);
do {
dmax =

Пример программы: решение краевой задачиomp_lock_t dmax_lock;omp_init_lock(&dmax_lock);do { dmax = 0; //

0; // максимальное изменение значений u
#pragma omp parallel

for shared(u,n,dmax) private(i,temp,d,dm)
for ( i=1; i dm = 0;
for ( j=1; j temp = u[i][j];
u[i][j] = 0.25*(u[i-1][j]+u[i+1][j]+
u[i][j-1]+u[i][j+1]–h*h*f[i][j]);
d = fabs(temp-u[i][j])
if ( dm < d ) dm = d;
}
omp_set_lock(&dmax_lock);
if ( dmax < dm ) dmax = dm;
omp_unset_lock(&dmax_lock);
}
} // конец параллельной области
} while ( dmax > eps );

Неоднозначность вычислений


Слайд 46 Пример программы: решение краевой задачи
omp_lock_t dmax_lock;
omp_init_lock(&dmax_lock);
do {
dmax =

Пример программы: решение краевой задачиomp_lock_t dmax_lock;omp_init_lock(&dmax_lock);do { dmax = 0; //

0; // максимальное изменение значений u
#pragma omp parallel

for shared(u,n,dmax) private(i,temp,d,dm)
for ( i=1; i dm = 0;
for ( j=1; j temp = u[i][j];
un[i][j] = 0.25*(u[i-1][j]+u[i+1][j]+
u[i][j-1]+u[i][j+1]–h*h*f[i][j]);
d = fabs(temp-un[i][j])
if ( dm < d ) dm = d;
}
omp_set_lock(&dmax_lock);
if ( dmax < dm ) dmax = dm;
omp_unset_lock(&dmax_lock);
}
} // конец параллельной области
for ( i=1; i for ( j=1; j u[i][j] = un[i][j];
} while ( dmax > eps );

Слайд 47 Пример программы: решение краевой задачи
omp_lock_t dmax_lock;
omp_init_lock(&dmax_lock);
do {
dmax =

Пример программы: решение краевой задачиomp_lock_t dmax_lock;omp_init_lock(&dmax_lock);do { dmax = 0; //

0; // максимальное изменение значений u
#pragma omp parallel

for shared(u,n,dmax) private(i,temp,d,dm)
for ( i=1; i dm = 0;
for ( j=1; j temp = u[i][j];
un[i][j] = 0.25*(u[i-1][j]+u[i+1][j]+
u[i][j-1]+u[i][j+1]–h*h*f[i][j]);
d = fabs(temp-un[i][j]);
if ( dm < d ) dm = d;
}
omp_set_lock(&dmax_lock);
if ( dmax < dm ) dmax = dm;
omp_unset_lock(&dmax_lock);
}
} // конец параллельной области
for ( i=1; i for ( j=1; j u[i][j] = un[i][j];
} while ( dmax > eps );

Получили метод Якоби


Слайд 48 Пример программы: решение краевой задачи
Другие способы устранения зависимостей
Четно-нечетное упорядочивание



Волновые

Пример программы: решение краевой задачиДругие способы устранения зависимостейЧетно-нечетное упорядочиваниеВолновые схемы

схемы


Слайд 49 Пример программы: решение краевой задачи
omp_lock_t dmax_lock;
omp_init_lock(&dmax_lock);
do {
// максимальное

Пример программы: решение краевой задачиomp_lock_t dmax_lock;omp_init_lock(&dmax_lock);do { // максимальное изменение значений

изменение значений u
dmax = 0;
// нарастание волны

(nx – размер волны)
for ( nx=1; nx dm[nx] = 0;
#pragma omp parallel for \
shared(u,nx,dm) \
private(i,j,temp,d)
for ( i=1; i j = nx + 1 – i;
temp = u[i][j];
u[i][j] = 0.25*(u[i-1][j]+
u[i+1][j]+u[i][j-1]+u[i][j+1]
–h*h*f[i][j]);
d = fabs(temp-u[i][j]);
if ( dm[i] < d ) dm[i] = d;
} // конец параллельной области
}

// затухание волны
for ( nx=N-1; nx>0; nx-- ) {
#pragma omp parallel for \
shared(u,nx,dm) private(i,j,temp,d)
for ( i=N-nx+1; i j = 2*N - nx – I + 1;
temp = u[i][j];
u[i][j] = 0.25*(u[i-1][j]+
u[i+1][j]+u[i][j-1]+u[i][j+1]
–h*h*f[i][j]);
d = fabs(temp-u[i][j])
if ( dm[i] < d ) dm[i] = d;
} // конец параллельной области
}
#pragma omp parallel for \
shared(n,dm,dmax) private(i)
for ( i=1; i omp_set_lock(&dmax_lock);
if ( dmax < dm[i] ) dmax = dm[i];
omp_unset_lock(&dmax_lock);
} // конец параллельной области
} while ( dmax > eps );

Метод Зейделя: волновая схема


Слайд 50 Пример программы: решение краевой задачи
Волновая схема с разбиением на

Пример программы: решение краевой задачиВолновая схема с разбиением на блоки

блоки


  • Имя файла: mnogopotochnoe-programmirovanie-v-openmp.pptx
  • Количество просмотров: 203
  • Количество скачиваний: 0