首页 > 代码库 > [黑科技]常数优化的一些技巧

[黑科技]常数优化的一些技巧

感谢wys和小火车普及这些技巧qwq 这篇文章大概没什么营养

我们来看一道十分简单的题目:

设n=131072,输入两个长度为n的数列技术分享技术分享,要求输出一个长度为n的数列技术分享

其中技术分享技术分享

首先我们来讲讲这题怎么做。

如果数据是随机的,那么有一种神奇的做法:在a和b中分别挑出最大的p个元素,对于每个i暴力枚举每个p进行更新,这样的复杂度是O(np)的,正确性我不会分析= =

那么数据不是随机的...那么估计没有什么快速的算法,不如暴力!

以下的运行时间均为在我的渣渣笔记本中测试得到,仅供参考。测试环境Ubuntu,编译选项只有-O2。

0.

#define SZ 666666int a[SZ],b[SZ],c[SZ];const int n=131072;int main(){    for(int i=0;i<n;i++) scanf("%d",a+i);    for(int i=0;i<n;i++) scanf("%d",b+i);    for(int i=0;i<=n;i++)    {        for(int j=0;j<=i;j++) c[i]=max(c[i],a[j]+b[i-j]);    }    for(int i=0;i<n;i++) printf("%d ",c[i]);puts("");    cerr<<clock()<<"ms\n";}

simple and stupid。我们来测试一下...跑了8s。虽然不是太糟,但是还是很慢...我们来进行一波有理有据的常数优化吧。

1. 加上输入输出优化

const int n=131072;char ch,B[1<<20],*S=B,*T=B;#define getc() (S==T&&(T=(S=B)+fread(B,1,1<<20,stdin),S==T)?0:*S++)#define isd(c) (c>=‘0‘&&c<=‘9‘)int aa,bb;int F(){    while(ch=getc(),!isd(ch)&&ch!=-);ch==-?aa=bb=0:(aa=ch-0,bb=1);    while(ch=getc(),isd(ch))aa=aa*10+ch-0;return bb?aa:-aa;}#define gi F()#define BUFSIZE 5000000namespace fob {char b[BUFSIZE]={},*f=b,*g=b+BUFSIZE-2;}#define pob (fwrite(fob::b,sizeof(char),fob::f-fob::b,stdout),fob::f=fob::b,0)#define pc(x) (*(fob::f++)=(x),(fob::f==fob::g)?pob:0)struct foce {~foce() {pob; fflush(stdout);}} _foce;namespace ib {char b[100];}inline void pint(int x){    if(x==0) {pc(48); return;}    //if(x<0) {pc(‘-‘); x=-x;} //如果有负数就加上     char *s=ib::b;    while(x) *(++s)=x%10, x/=10;    while(s!=ib::b) pc((*(s--))+48);}int main(){    for(int i=0;i<n;i++) a[i]=gi;    for(int i=0;i<n;i++) b[i]=gi;    for(int i=0;i<=n;i++)        for(int j=0;j<=i;j++) c[i]=max(c[i],a[j]+b[i-j]);    for(int i=0;i<n;i++) pint(c[i]),pc( );pc(10);    cerr<<clock()<<"ms\n";}

虽然看起来只有10w多个数,我们还是加一波输入输出优化试试...

居然跑了10s。比原来还慢...这和预期不太相符啊...在windows上加了输入输出确实会变快,但是ubuntu下变慢了...大概输入输出少的时候最好还是不要加优化?

以下的测试全部基于输入输出优化,就假装加了优化跑的更快好了。

2. 手写stl

虽然这段代码非常短,但是我们还是使用了一个stl:max。我们来常数优化一波!

for(int i=0;i<=n;i++)        for(int j=0;j<=i;j++)            if(a[j]+b[i-j]>c[i])                c[i]=a[j]+b[i-j];

测了测,跑了5.3s,比原来快了快一半!可喜可贺。

3. 把if改成三目?

这时候我想起了wys的教导:少用if,多用三目。

for(int i=0;i<=n;i++)        for(int j=0;j<=i;j++)            (a[j]+b[i-j]>c[i])            ?(c[i]=a[j]+b[i-j]):0;

这样写跑了6.1s,居然比if还慢?

有理有据的分析:正常情况下,if改成三目会变快的原因是因为消除了分支预测,分支预测错误跳转的代价很大,而上面那段代码预测错误几率很小,所以if就比较快了。

4. 循环展开

为了写起来方便,首先我们将b数组反序,这样可以减少运算量,接下来把内层j循环展开。

int main(){    for(register int i=0;i<n;i++) a[i]=gi;    for(register int i=0;i<n;i++) b[n-i]=gi;    for(register int i=0;i<n;i++)    {        int*r=b+n-i;        for(register int j=0;j<=i;j+=8)        {        #define chk(a,b,c) if(a+b>c) c=a+b;        #define par(p) chk(a[p],b[p],c[i])        par(j) par(j+1) par(j+2) par(j+3)        par(j+4) par(j+5) par(j+6) par(j+7)        }    }    for(register int i=0;i<n;i++) pint(c[i]),pc( );pc(10);    cerr<<clock()<<"ms\n";}

这样理论上cpu可以对中间的代码乱序执行,就是一次执行很多条,从而提高运行速度。

实测优化效果非常好,只跑了2.9s,比原来快了1倍多。

此外我还了解到openmp和cache blocking这两种优化方法,但是对程序提速不明显,这里就不提了,有兴趣的自行度娘。

5. Intrinsic

这是真正的黑科技了= =orz小火车

#include "immintrin.h"#include "emmintrin.h"static __m256i a_m[SZ],b_m[8][SZ];static int a[SZ],b[SZ],c[SZ];__attribute__((target("avx2")))inline int gmax(__m256i qwq){    int*g=(int*)&qwq,ans=0;    (g[0]>ans)?(ans=g[0]):0;    (g[1]>ans)?(ans=g[1]):0;    (g[2]>ans)?(ans=g[2]):0;    (g[3]>ans)?(ans=g[3]):0;    (g[4]>ans)?(ans=g[4]):0;    (g[5]>ans)?(ans=g[5]):0;    (g[6]>ans)?(ans=g[6]):0;    (g[7]>ans)?(ans=g[7]):0;    return ans;}__attribute__((target("avx2")))int main(){    const int n=131072;    memset(a,-127/3,sizeof(a));    memset(b,-127/3,sizeof(b));    for(register int i=0;i<n;i++) a[i]=gi;    for(register int i=0;i<n;i++) b[n-i]=gi;    for(register int i=0;i<=n+5;i+=8)        a_m[i>>3]=_mm256_set_epi32        (a[i],a[i+1],a[i+2],a[i+3],        a[i+4],a[i+5],a[i+6],a[i+7]);    for(register int r=0;r<8;++r)    for(register int i=0;i<=n+67;i+=8)        b_m[r][i>>3]=_mm256_set_epi32        (b[i+r],b[i+1+r],b[i+2+r],b[i+3+r],        b[i+4+r],b[i+5+r],b[i+6+r],b[i+7+r]);    __m256i zero=_mm256_set_epi32(0,0,0,0,0,0,0,0);    for(register int i=0,lj;i<n;i++)    {        __m256i*r=b_m[(n-i)&7]+((n-i)>>3),        qwq=zero; lj=(i>>3);        for(register int j=0;j<=lj;j+=8)        {#define par(p) qwq=_mm256_max_epi32(\qwq,_mm256_add_epi32(a_m[p],r[p]));            par(j) par(j+1) par(j+2) par(j+3)            par(j+4) par(j+5) par(j+6) par(j+7)        }        c[i]=gmax(qwq);    }    for(register int i=0;i<n;i++)        pint(c[i]),pc( );pc(10);    cerr<<clock()<<"ms\n";}

这段代码有点长,这里解释一下原理。

大家都知道stl中有一个很好用的库叫bitset,它的原理是将32/64个bit(取决于字长)压成一个数(long),从而使常数/=32或64。

在intel部分指令集中,有类似的数据类型,可以将多个int/float/double等等压在一个128/256/512位的数据类型里,从而一起进行计算。

大致有三种数据类型:

__m128i __m256i __m512i

分别对应压在128/256/512位内。

我们可以对这三种数据类型中压的数进行并行计算!例如一个__m256i里可以包8个int。这些数据类型的方法有点多,intel提供了一个可以查找这些方法的页面:https://software.intel.com/sites/landingpage/IntrinsicsGuide/

实现起来相当于手写bitset,细节详见代码吧。

这段代码只跑了1.4s!又比循环展开快了一倍。

我实测了一下,在uoj上__m256i无法使用,__m128i只能使用部分指令,例如_mm_max_epi32这个指令就不支持......洛谷上可以正常运行。

[黑科技]常数优化的一些技巧