首页 > 代码库 > Stanford机器学习---第七讲. 机器学习系统设计
Stanford机器学习---第七讲. 机器学习系统设计
本文原始版本号见http://blog.csdn.net/abcjennifer/article/details/7834256
本栏目(Machine learning)包含单參数的线性回归、多參数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持向量机)、聚类、降维、异常检測、大规模机器学习等章节。全部内容均来自Standford公开课machine learning中Andrew老师的解说。
(https://class.coursera.org/ml/class/index)
第七讲. 机器学习系统设计——Machine learning System Design
===============================
(一)、决定基本策略
(二)、Error分析
☆(三)、对Skewed Classes建立Error Metrics
☆(四)、在Precision 和 Recall (精度和召回率)间权衡
(五)、机器学习数据选定
===============================
(一)、决定基本策略
在本章中。我们用一个实际样例<如何进行垃圾邮件Spam的分类>来描写叙述机器学习系统设计方法。
首先我们来看两封邮件。左边是一封垃圾邮件Spam。右边是一封非垃圾邮件Non-Spam:
观察其样式可以发现,垃圾邮件有非常多features,那么我们想要建立一个Spam分类器,就要进行有监督学习,将Spam的features提取出来。而希望这些features可以非常好的区分Spam vs. Non-Spam.
就例如以下图所看到的,我们提取出来deal, buy, discount, now等feature。建立起这种一个feature向量:
这里请大家注意:其实。对于spam分类器,我们并不是人工选择100个看似是spam feature的feature作为特征。而是选取spam中词频最高的100个词取而代之。
以下就是本节重点——怎样决定基本策略,一些可能有利于classifier工作的方法:
- 收集大量数据——如“honeypot" project
- 从Email Route着手建立较为复杂的feature——如发件人为cheapbuying@bug.com
- 对message正文建立复杂精确的feature库——如是否应把discount和discounts视作同一个词等
- 建立算法检查拼写错误,作为feature——如"med1cine"
当然。上述策略并不是所有奏效。如以下的练习题所看到的:
===============================
(二)、Error分析
我们经常在一个ML算法设计的起步阶段有些困惑。要用如何的系统?建立如何的模型,feature如何提取等……
这里呢,我们给大家推荐一个方法,用来建立一个ML系统:
- 用at most 一天,24小时的时间实现一个简单的算法。logistic regression也好,linear regression也好。用simple features而非细致探究哪个特征更有效。然后呢。在cross-validation数据集上进行測试。
- 利用画learning curves的方法去探究,数据集很多其它 或者 增加很多其它features 是否有利于系统工作。
- Error Analysis:上面已经在cross-validation数据集上測试了系统性能。如今呢,我们人工去看是哪些数据造成了大error的产生?能否够通过改变systematic trend降低error?
还是用Spam-Classifier举例。我们看一下进行Error Analysis的步骤:
- 在建立了simple system 并在CV set上做測试后,我们进行error analysis步骤,将全部spam分为pharma。replica/fake,Steal password 和 其它。这四类。
- 找到一些可能有助于改善分类效果的features。
这里呢,我们不要感性地去想,而是最好用数字体现效果。比方对于discount/discounts/discounted/discounting是否被视为都含有discount这个feature的问题,我们不要主观地去想。而是看假设看都含有这个feature,那么结果是有3%的error。假设不都看做有discount这个feature。则有5%的error,由此可见哪种方法比較好。
PS:介绍一个软件Porter stemmer,能够google到。是将discount/discounts/discounted/discounting视为同类的软件。
对于是否将大写和小写视作同一个feature是相同的道理。
===============================
(三)、对Skewed Classes建立Error Metrics
有些情况下。Classification-accuracy 和 Classification-error不能描写叙述出整个系统的优劣,比方针对以下的Skewed Classes。
什么是Skewed Classes呢?一个分类问题,假设结果仅有两类y=0和y=1,并且当中一类样本许多,还有一类很少。我们称这样的分类问题中的类为Skewed Classes.
比方以下这个问题:
我们用一个logistic regression作为预測samples是否为cancer患者的模型。该模型在cross-validation set上測试的结果显示。有1%的error,99%的正确诊断率。而其实呢,仅仅有0.5%的样本为真正的cancer患者。
这样一来。我们建立还有一个算法去predict:
function y=predictCancer(x)
y=0; %即忽略x中feature的影响
return;
好了,这么一来,该算法将全部sample预測为非癌症患者。那么仅仅存在0.5%的误差,单纯从classification-error来看,比我们之前做的logistic regression要强,可其实我们清楚这样的cheat方法仅仅是trick,不能用作实际使用。因此,我们引入了Error Metrics这个概念。
考虑一个二分问题,即将实例分成正类(positive)或负类(negative)。
对一个二分问题来说,会出现四种情况。
假设一个实例是正类而且也被 预測成正类,即为真正类(True positive),假设实例是负类被预測成正类,称之为假正类(False positive)。对应地。假设实例是负类被预測成负类,称之为真负类(True negative),正类被预測成负类则为假负类(false negative)。
这样就能够建立一个Error Metrics(下图左),并定义precision和recall。例如以下图所看到的:
也可參考我原来关于ROC曲线的文章。
precision:正确预測正样本/我全部预測为正样本的;
recall:正确预測正样本/真实值为正样本的。
当且仅当Precision和Recall都高的时候我们能够确信,该predict算法work well !
ok, 我们再来看看当初将全部sample预測为Non-Cancer的算法,这里。TP=0,FP=0, FN=1, TN=199(如果sample共200个)
因为TP=0, 所以precision=recall=0!证明了该算法的un-avaliable!
所以,不管一个类是否是Skewed Classes。仅仅要满足precision 和 recall都非常高才干够保证该算法的有用性。
练习题,做下看:
最后须要提醒大家的是,关于哪边作为true,哪边作为false的问题。对于上面那个问题。我们给定cancer的为true,实际应用中,我们应当在binary classification中指定类中sample较少的那一类作为true,还有一类作为false。
这一点千万不能搞错。
===============================
(四)、在Precision 和 Recall (精度和召回率)间权衡
对于一个prediction问题,如果我们採用例如以下方法进行预測:
这里存在一个threshold=0.5。
依据
不同的threshold有例如以下两类情况:
- 假设我们希望在非常确信的情况下才告诉病人有cancer,也就是说不要给病人太多惊吓,我告诉你有cancer,你肯定有cancer。我告诉你没cancer,你也有可能有cancer,那么该情况下有:higher threshold,higher precision。lower recall
- 假设我们不希望让病人错过提前治疗,与上例相反。就有:lower threshold,lower precision。higher recall
这里大家假设想不清楚能够把error metrics画出来看一下。
那么我们能够画出来precision-recall图:
不同的数据。其曲线形式不同,但有一条规律是不变的:
thres高相应高precision低recall;
thres低相应低precision高recall;
☆那么在不同算法或不同threshold造成的的{precision,recall}间。我们如何选择那个算法比較好呢?
增加我们如今有三个算法(或threshold)的数据:
可见。Algorithm3中,recall=1,即predict全部y=1,这显然违背了我们的初衷。以下看评判标准。用p表示precision。r表示recall;
假设我们选取评判标准=(p+r)/2,则algorithm3胜出。显然不合理。这里我们介绍一个评价标准:F1-Score.
当p=0 或 r=0时,有f=0;
当p=1&&r=1时,有f=1,最大;
相同我们将f1 score 应用于以上三个算法,可的结果,algorithm1最大,也就是最好;algorithm3最小,也就是最差。因此我们用F1 score来衡量一个算法的性能,也就是我们说的precision和recall间的trade-off。
练习,做下吧~(这道略弱):
===============================
(五)、机器学习数据选定
对于机器学习,我们能够选择非常多不同的algorithems进行prediction,如:
可见,随着training set的上升,accuracy通常会得到提高,但其实也不全是这样。
比方房价预測,假设我只给你房子的面积。而没有房子在市中心还是偏远地区?房龄多少?等信息,我们是无法进行良好预測的。
这里就涉及到怎样合理处理训练数据及的问题。
记得上一讲中我们已经介绍过了bias和variance的定义和差别。这里我们来看。他们的产生环境:
bias:J(train)大,J(cv)大,J(train)≈J(cv),bias产生于d小。underfit阶段。
variance:J(train)小。J(cv)大。J(train)<<J(cv)。variance产生于d大。overfit阶段;
- 想要保证bias小,就要保证有足够多的feature,即linear/logistics regression中有非常多parameters。neuron networks中应该有非常多hidden layer neurons.
- 想要保证variance小。就要保证不产生overfit。那么就须要非常多data set。这里须要J(train)和J(CV)都非常小,才干使J(test)相对小。
例如以下图所看到的:
综上所述。对数据及进行rational分析的结果是两条:
首先。x中有足够多的feature,以得到low bias;
其次,有足够大的training set,以得到low variance。
练习题:
==============================================
本章重要,讲述了机器学习中怎样设计机器学习系统,涉及机器学习方法、策略、算法的问题,希望大家牢牢掌握,以降低不必要的时间浪费。
Stanford机器学习---第七讲. 机器学习系统设计