首页 > 代码库 > 基于GCC的openMP学习与测试
基于GCC的openMP学习与测试
(一)、openMP简述
- 随着CPU速度不再像以前那样显著提高,多核系统正变得越来越流行。为了利用这种能力,程序员在并行编程中变得很有知识变得越来越重要——让程序同时执行多个任务。Open Multiprocessing (OpenMP) 框架是一种功能极为强大的规范,可以帮助您利用 C、C++ 和 Fortran 应用程序中的多个核心带来的好处,是基于共享内存模式的一种并行编程模型, 使用十分方便, 只需要串行程序中加入OpenMP预处理指令, 就可以实现串行程序的并行化。
- 现在,openMP支持不同的编译器,GCC、Clang++、Solaris Studio、Intel C Compiler、Microsoft Visual C++等。程序员在编程时,只需要在特定的源代码片段的前面加入OpenMP专用的 #pargma omp 预编译指令,就可以“通知”编译器将该段程序自动进行并行化处理,并且在必要的时候加入线程同步及通信机制。当编译器选择忽略#pargma omp预处理指令时,或者编译器不支持OpenMP时,程序又退化为一般的通用串行程序,此时,代码依然可以正常运作,只是不能利用多线程和多核CPU来加速程序的执行而已。
(二)、openMP简单使用
1、简单的HelloWord程序
- 代码
-
#include <iostream> int main() { #pragma omp parallel { std::cout << "Hello World!\n"; } }
#pragma omp parallel
仅在您指定了-fopenmp
编译器选项后才会发挥作用。在编译期间,GCC 会根据硬件和操作系统配置在运行时生成代码,创建尽可能多的线程。- 只运行 g++ hello.cpp,只会打印出一行Hello world!
- 运行g++ hello.cpp -fopenmp,打印出12个Hello World!(12是因为我用的是linux服务器默认分配的
- 运行结果
-
user@NLP ~/vsworksapce $ g++ hello.cpp user@NLP ~/vsworksapce $ ./a.out Hello World! user@NLP ~/vsworksapce $ g++ hello.cpp -fopenmp user@NLP ~/vsworksapce $ ./a.out Hello World! Hello World! Hello World! Hello World! Hello World! Hello World! Hello World! Hello World! Hello World! Hello World! Hello World! Hello World!
2、如何自定义线程数量
- num_threads的设置
- omp_set_num_threads()库函数的设置
- 代码
-
#include <omp.h> #include <iostream> int main() { int number_threads = 1; omp_set_num_threads(number_threads) //方法二 #pragma omp parallel num_threads(number_threads) //方式一 { std::cout << "Hello World!\n"; } }
- OMP_NUM_THREADS环境变量的设置 (Linux下:export OMP_NUM_THREADS=4)
- 编译器默认实现(一般而言,默认实现的是总线程数等于处理器的核心数)(不指定具体线程数量的情况下)
3、parallel sections 编译指示
-
pragma omp sections
和pragma omp parallel
之间的代码将由所有线程并行运行。pragma omp sections
之后的代码块通过pragma omp section
进一步被分为各个子区段。每个pragma omp section
块将由一个单独的线程执行。但是,区段块中的各个指令始终按顺序运行。 - 代码
#include <iostream> int main() { #pragma omp parallel { std::cout << "parallel \n"; #pragma omp sections { #pragma omp section { std::cout << "section1 \n"; } #pragma omp section { std::cout << "sectio2 \n"; std::cout << "after sectio2 \n"; } #pragma omp section { std::cout << "sectio3 \n"; std::cout << "after sectio3 \n"; } } } }
//运行结果
user@NLP ~/vsworksapce $ g++ openMP12.cpp -fopenmp
user@NLP ~/vsworksapce $ ./a.out
parallel
section1
sectio2
after sectio2
sectio3
after sectio3
parallel
parallel
parallel
parallel
parallel
parallel
parallel
parallel
parallel
parallel
parallel
4、还有一些omp_get_wtime、for循环中的并行处理、OpenMP 实现锁和互斥、以及firstprivate
和lastprivate
指令
等一些openMP的使用可以参考(https://www.ibm.com/developerworks/cn/aix/library/au-aix-openmp-framework/)。
(三)、openMP简单测试
1、简单的测试--不限制线程数量
- 代码
#include <omp.h> #include <time.h> #include <iostream> #include <ctime> int main() { time_t start,end1; time( &start ); int a = 0; #pragma omp parallel for for (int i = 0; i < 100; ++i) { for (int j = 0; j < 1000000000; j++); //std::cout<< a++ << std::endl; } time( &end1 ); double omp_end = omp_get_wtime( ); std::cout<<std::endl; std::cout<<"Time_used " <<((end1 - start))<<"s"<<std::endl; std::cout<<"omp_time: "<<((omp_end - omp_start))<<std::endl; return 0; }
- 使用openMp
- 不使用openMP
- 从代码的运行时间上可以看出使用openMP的运行时间明显少于不使用openMP。
2、简单的测试--限制线程数量
- 代码
-
#include <omp.h> #include <time.h> #include <iostream> #include <ctime> int main() { time_t start,end1; time( &start ); int a = 0; double omp_start = omp_get_wtime( ); #pragma omp parallel for num_threads(8) for (int i = 0; i < 100; ++i) { for (int j = 0; j < 1000000000; j++); } time( &end1 ); double omp_end = omp_get_wtime( ); std::cout<<std::endl; std::cout<<"Time_used " <<((end1 - start))<<"s"<<std::endl; std::cout<<"omp_time: "<<((omp_end - omp_start))<<std::endl; return 0; }
- 线程数量 = 12
- 线程数量 = 8
-
- 线程数量 = 4
-
- 从线程数量测试结果能看出来,线程数量对程序运行时间也是有一定的影响的,影响的大小和程序运算数据量有关。
3、简单测试--提升数据量,限制线程数量
- 代码
-
#include <omp.h> #include <time.h> #include <iostream> #include <ctime> int main() { time_t start,end1; time( &start ); int a = 0; double omp_start = omp_get_wtime( ); #pragma omp parallel for num_threads(12) for (int i = 0; i < 1000; ++i) { for (int j = 0; j < 1000000000; j++); } time( &end1 ); double omp_end = omp_get_wtime( ); std::cout<<std::endl; std::cout<<"Time_used " <<((end1 - start))<<"s"<<std::endl; std::cout<<"omp_time: "<<((omp_end - omp_start))<<std::endl; return 0; }
- 线程数量 = 4 或者,上面的是线程数量 = 4,下面的是线程数量 = 4,下面的是线程数量 = 12,能够看出来程序运行的时间是有一些差距的,如果继续提升数据运算量,openMP的实验效果会更加明显。
4、简单测试--降低数据量,限制线程数量
- 代码
-
#include <omp.h> #include <time.h> #include <iostream> #include <ctime> int main() { time_t start,end1; time( &start ); int a = 0; double omp_start = omp_get_wtime( ); #pragma omp parallel for for (int i = 0; i < 1000; ++i) { for (int j = 0; j < 10000; j++); } time( &end1 ); double omp_end = omp_get_wtime( ); std::cout<<std::endl; std::cout<<"Time_used " <<((end1 - start))<<"s"<<std::endl; std::cout<<"omp_time: "<<((omp_end - omp_start))<<std::endl; return 0; }
- 当数据量很小的时候,使用或者不使用openMP对于程序的运行时间相差无几
-
(四)、openMP学习参考
- 通过 GCC 学习 OpenMP 框架:https://www.ibm.com/developerworks/cn/aix/library/au-aix-openmp-framework/
-
Guide into OpenMP : http://bisqwit.iki.fi/story/howto/openmp/
基于GCC的openMP学习与测试
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。