首页 > 代码库 > 【机器学习算法-python实现】协同过滤(cf)的三种方法实现

【机器学习算法-python实现】协同过滤(cf)的三种方法实现

(转载请注明出处:http://blog.csdn.net/buptgshengod)

1.背景

      协同过滤(collaborative filtering)是推荐系统经常使用的一种方法。cf的主要思想就是找出物品类似度高的归为一类进行推荐。cf又分为icf和ucf。

icf指的是item collaborative filtering,是将商品进行分析推荐。同理ucf的u指的是user,他是找出知趣类似的人,进行推荐。

通常来讲icf的准确率可能会高一些。通过这次參加天猫大数据比赛。我认为仅仅有在数据量很庞大的时候才适合用cf,假设数据量很小。cf的准确率会很可怜。

博主在比赛s1阶段,大概仅仅有几万条数据的时候,尝试了icf,准确率不到百分之中的一个。

。。

。。


2.经常用法

     cf的经常用法有三种,各自是欧式距离法、皮尔逊相关系数法、余弦类似度法。

       測试矩阵,行表示三名用户,列表示三个品牌。对品牌的喜爱度依照1~5添加。
技术分享

(1)欧氏距离法

        就是计算每两个点的距离,比方Nike和Sony的类似度技术分享

数值越小。表示类似的越高。

def OsDistance(vector1, vector2):
    sqDiffVector = vector1-vector2
    sqDiffVector=sqDiffVector**2
    sqDistances = sqDiffVector.sum()
    distance = sqDistances**0.5
    return distance


(2)皮尔逊相关系数 

       

        两个变量之间的相关系数越高。从一个变量去预測还有一个变量的准确度就越高,这是由于相关系数越高,就意味着这两个变量的共变部分越多,所以从当中一个变量的变化就可越多地获知还有一个变量的变化。

假设两个变量之间的相关系数为1或-1,那么你全然可由变量X去获知变量Y的值。

·         当相关系数为0时。X和Y两变量无关系。

·         当X的值增大。Y也增大。正相关关系,相关系数在0.00与1.00之间

·         当X的值减小,Y也减小,正相关关系。相关系数在0.00与1.00之间

·         当X的值增大。Y减小,负相关关系。相关系数在-1.00与0.00之间

          当X的值减小。Y增大,负相关关系,相关系数在-1.00与0.00之间

相关系数的绝对值越大。相关性越强,相关系数越接近于1和-1,相关度越强,相关系数越接近于0,相关度越弱。

技术分享

           

            在python中用函数corrcoef实现。详细方法见http://infosec.pku.edu.cn/~dulz/doc/Numpy_Example_List.htm


(3)余弦类似度

         通过測量两个向量内积空间的夹角的余弦值来度量它们之间的类似性。

0度角的余弦值是1,而其它不论什么角度的


余弦值都不大于1;而且其最小值是-1。从而两个向量之间的角度的余弦值确定两个向量是否大致指向同样的方向。两

个向量有同样的指向时,余弦类似度的值为1;两个向量夹角为90°时,余弦类似度的值为0;两个向量指向全然相

反的方向时。余弦类似度的值为-1。

在比較过程中。向量的规模大小不予考虑,仅仅考虑到向量的指向方向。余弦相


似度通经常使用于两个向量的夹角小于90°之内,因此余弦类似度的值为0到1之间。


       技术分享
       
def cosSim(inA,inB):
    num = float(inA.T*inB)
    denom = la.norm(inA)*la.norm(inB)
    return 0.5+0.5*(num/denom)


代码:点击查看

【机器学习算法-python实现】协同过滤(cf)的三种方法实现