首页 > 代码库 > 大量数据处理的一个思路

大量数据处理的一个思路

    对于在运行过程中只用到一次,但是会严重影响运行效率的数据,在使用过后立刻删除,以提高运行效率。

    遥感影像信息提取中,有预判、审核两步。对于同一块地区,预判作业员先勾画出目标地物并赋值,完成之后复制一份矢量交给审核作业员检查,审核作业员在预判的基础上修改图斑形状、属性,或者删除、添加图斑。

    现在需要对比两份矢量,计算预判作业员的错误率、遗漏率,主体代码很简单,就是遍历审核后的矢量(审核矢量),找出每个图斑对应的预判矢量图斑,比较。如果找不到对应的图斑,则认为是遗漏。

            shapeChange = attrChange = missing = 0;

            ISpatialFilter preFilter = new SpatialFilterClass();
            preFilter.SpatialRel = esriSpatialRelEnum.esriSpatialRelWithin;

            IFeature chkFeat = null;
            IFeatureCursor chkCur = chkClass.Search(null, false);
            while ((chkFeat = chkCur.NextFeature()) != null)
            {
                IArea chkArea = chkFeat.Shape as IArea;
                preFilter.Geometry = chkArea.LabelPoint;

                IFeatureCursor preCur = preClass.Search(preFilter, false);
                IFeature preFeat = preCur.NextFeature();
                if (preFeat == null)
                {
                    missing++;
                    continue;
                }

                IRelationalOperator relOp = chkFeat.Shape as IRelationalOperator;
                object preAttr = preFeat.get_Value(preIndex);
                object chkAttr = chkFeat.get_Value(chkIndex);
                
                //开始图形比较
                if (!relOp.Equals(preFeat.Shape))
                {
                    shapeChange++;
                    continue;
                }
                if (!preAttr.Equals(chkAttr))
                {
                    attrChange++;
                    continue;
                }
            }

    这段代码在图斑数量不上万的情况下运行良好,然而图斑数量变多之后效率急速下降,两份5万左右的矢量,一夜都没比较完。经过排查,时间开销最大的是空间查找对应图斑这段代码。因此我试着在图形比较之前添加以下代码,删除与审核图斑属性形状都相同的预判图斑。

                if (relOp.Equals(preFeat.Shape) && preAttr.Equals(chkAttr))
                {
                    preFeat.Delete();
                    continue;
                }

结果原先一夜跑不完的数据只用了半小时就搞定。

    这里就是我想要说的思路,对于在运行过程中只用到一次,但是会严重影响运行效率的数据,在使用过后立刻删除,以提高运行效率。

    想到这个思路后两天,又遇到了一个数据量很大的需求。有一份矢量,要求其中一个字段里的值不能有重复,但是检查之后发现有1万多图斑的值有重复,需要找出这1万多图斑。我的实现代码如下:

# coding:utf-8
import os
import arcpy

orishp=arcpy.GetParameterAsText(0)
uniquefd==arcpy.GetParameterAsText(1)

scur=arcpy.da.SearchCursor(orishp,[uniquefd])
allvalues=[row[0] for row in scur]

dcur=arcpy.da.UpdateCursor(orishp,[uniquefd])
for row in dcur:
    if allvalues.count(row[0])==1:
        allvalues.remove(row[0])
        dcur.deleteRow()

倒数第二行,我把数组里只出现一次的值都删除,使执行allvalues.count()所需的时间逐次减少,以提高效率。

    用一份40万个图斑的矢量测试,以上代码需要16分钟,把倒数第二行注释之后再测试,需要30分钟,消耗的时间增加了几乎一倍。

    最近遇到的业务量越来越大,如果有其他好的提高效率的方法,希望大家多指点。

大量数据处理的一个思路