首页 > 代码库 > knn原理与实践

knn原理与实践

knn是一种基本分类与回归方法

应用:knn算法不仅可以用于分类,还可以用于回归..

1、文本分类:文本分类主要应用于信息检索,机器翻译,自动文摘,信息过滤,邮件分类等任务.

2、可以使用knn算法做到比较通用的现有用户产品推荐,基于用户的最近邻(长得最像的用户)买了什么产品来推荐是种介于电子商务网站和sns网站之间的精确营销.只需要定期(例如每月)维护更新最近邻表就可以,基于最近邻表做搜索推荐可以很实时

技术分享

优点:

1、简单,易于理解,易于实现,无需估计参数,无需训练,选择合适的k,对异常值不敏感;

2、适合于多分类问题(multi-modal,对象具有多个类别标签)

3、可拓展性强,添加新实例无需重新构造模型

缺点:

1、当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数.可以采用权值的方法(和该样本距离小的邻居权值大)来改进.

2、计算量较大,因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得它的K个最近邻点.对于大数据分类,即需要大量的训练样本,计算复杂度高

3、可理解性差,无法给出像决策树那样的规则.

 

距离度量:

1、高维度对距离衡量的影响:众所周知当变量数越多,欧式距离的区分能力就越差.

2、变量值域对距离的影响:值域越大的变量常常会在距离计算中占据主导作用,因此应先对变量进行标准化.

 

K值选择:目前采用交叉验证方式,选出误差率最小的对应的K

 

技术分享

构造:

1、随着树的深度增加,循环的选取坐标轴,作为分割超平面的法向量。对于3-d tree来说,根节点选取x轴,根节点的孩子选取y轴,根节点的孙子选取z轴,根节点的曾孙子选取x轴,这样循环下去。

2、每次均为所有对应实例的中位数的实例作为切分点,切分点作为父节点,左右两侧为划分的作为左右两子树。

对于n个实例的k维数据来说,建立kd-tree的时间复杂度为O(k*n*logn)。

搜索:

最近邻搜索如下(k最近邻,搜索k次,每次将上一次最近邻删除)

1、首先从根节点出发找到包含目标点的叶节点,目标点的最近邻一定在以目标点为中心,并通过当前叶节点的超球体内部,

2、然后从该叶节点出发,依次回退到父节点,

3、如果父节点的另一子节点的区域与超球体相交,则到该区域继续查找,不断的查找与目标点最近邻的节点,直到不能查找最近邻的节点为止。

 

############################R语言#########################

library(class)

knn(train,test,cl,k=1,l=0,prob=FALSE,use.all=TRUE)

################################案例###########################################

##############################案例#############################################

library(class)

library(nutshell) ######取数据集spambase做案例#########

library(sampling) ########用抽样函数strata做抽样###################

data(spambase)

spambase.strata<-strata(spambase,stratanames=c("is_spam"),size=c(1269,1951)

,method="srswor") ########变量ID_unit#描述了样本中的行号信息###########

spambase.training<-spambase[rownames(spambase)%in%spambase.strata$ID_unit,]

#####训练集#############

spambase.validation<-spambase[!(rownames(spambase)%in%spambase.strata$ID_unit),]

######验证集###############

spambase.knn<-knn(train=spambase.training,test=spambase.validation,

cl=spambase.training$is_spam)

##########cl:训练数据的响应变量(因子类型)######################

summary(spambase.knn)

table(predicted=spambase.knn,actual=spambase.validation$is_spam)

 

 

####################matlab代码:包含分类与回归#######################

functionrelustLabel=KNN(test,train,trainlabels,k,type) %% test 为一条输入测试数据,train为样本数据,trainlabels为样本标签,选取k个临近值 

    row = size(train,1);

    for j=1:row

        switch type 

            case 1  % 求test到每个样本的欧氏距离 

                distanceMat(j)=sum((test-train(j,:)).^2);

            case 2  %求test到每个样本的夹角余弦               

                distanceMat(j)=(train(j,:)*test‘)/(norm(train(j,:),2)*norm(test,2)); 

                if distanceMat(j)<0 

                    distanceMat(j)=(distanceMat(j)+1)/2;

                end

        end

    end

    distanceMat=distanceMat‘; 

    [B, IX] = sort(distanceMat,‘ascend‘);  %距离从小到大排序

    len = min(k,length(B));  %选k个邻近值,当然k不能超过训练样本个数 

    relustLabel = mode(trainlabels(IX(1:len))); % 取众数(即出现频率最高的label)作为返回结果

    %%%%%%%%%%%%%%%%%对于回归而言: relustLabel = avg(trainlabels(IX(1:len)))

end

 

 

 %主程序:

loaddata; 

dataMat = data(:,1:3);

labels = data(:,4);

len = size(dataMat,1);

k = 4; 

error = 0;

%观察可视化数据 

label1=find(data(:,4)==1);

label2=find(data(:,4)==2);

label3=find(data(:,4)==3); 

plot3(data(label1,1),data(label1,2),data(label1,3),‘ro‘); 

hold on 

plot3(data(label2,1),data(label2,2),data(label2,3),‘go‘);

plot3(data(label3,1),data(label3,2),data(label3,3),‘bo‘); 

grid on  %归一化处理 

maxV = max(dataMat);

minV = min(dataMat);

range = maxV-minV;

newdataMat =  (dataMat-repmat(minV,[len,1]))./(repmat(range,[len,1])); 

%测试数据比例

Ratio = 0.1; 

numTest = Ratio * len; % 100条测试, 900条训练

 

%训练数据和测试数据 

TrainData=http://www.mamicode.com/newdataMat(numTest+1:end,:);

TrainLabels=labels(numTest+1:end,:);

TestData=http://www.mamicode.com/newdataMat(1:numTest,:);

TestLabels=labels(1:numTest,:); %测试,欧氏距离type=1, 夹角余弦type=2 

type=1; 

for i = 1:numTest

    classifyresult =  KNN(TestData(i,:),TrainData,TrainLabels,k,type);

    % fprintf(‘第 %d 条记录,测试结果为:%d  真实结果为:%d\n‘,[iclassifyresult(i) labels(i)])

    [classifyresult labels(i)])

        if(classifyresult~=labels(i))

            error = error+1;

        end

end

classifyresult=classifyresult‘;

fprintf(‘分类错误的记录标签为:‘) 

Index=find(classifyresult~=TestLabels)

fprintf(‘准确率为:%f\n‘,1-error/(numTest))

knn原理与实践