首页 > 代码库 > 机器学习笔记partI

机器学习笔记partI

机器学习课程

要求:掌握基本线性代数(矩阵、矢量、矩阵向量乘法),和基本概率(随机变量、基本属性的概率)以及微积分

 

 

机器学习:引言课程1

                       

 

机器学习:引言课程2

 

机器学习算法分为:

1.监督式学习算法

2.非监督式学习算法

3.强化学习算法

4.推荐系统

 

 

 

机器学习:引言课程3—监督式学习

 

监督式学习:用正确答案去进行训练

监督学习是训练神经网络和决策树的最常见技术。这两种技术(神经网络和决策树)高度依赖于事先确定的分类系统给出的信息。对于神经网络来说,分类系统用于判断网络的错误,然后调整网络适应它;对于决策树,分类系统用来判断哪些属性提供了最多的信息,如此一来可以用它解决分类系统的问题。 

使用隐马尔科夫模型和贝斯网络的语音识别系统也依赖于某些监督的要素,那通常是为了调节系统的参数以便于最小化给定输入中的错误。

在分类问题中,学习算法的目标是把给定输入中的错误最小化。

假如现在要预测一个面积为750的房子价格该多少钱,我们最能想到的是用一条曲线去拟合这些点,然后求出这条曲线的方程,再把x代入求解出Y。这就是监督学习,因为对于每一条数据我们都预先给出了正确的结果,上面这个问题又称为回归问题(regression),因为预测的变量Y是连续的。

    如果预测的变量不是连续的,而是有类别的就叫做分类问题(Classification)

 

 

 

机器学习:引言课程4—非监督式学习

非监督式学习:没有正确答案(没有事先的分类),直接用数据集进行训练

 

非监督学习看起来非常困难:目标是我们不告诉计算机怎么做,而是让它(计算机)自己去学习怎样做一些事情。非监督学习一般有两种思路。第一种思路是在指导Agent时不为其指定明确的分类,而是在成功时采用某种形式的激励制度。需要注意的是,这类训练通常会置于决策问题的框架里,因为它的目标不是产生一个分类系统,而是做出最大回报的决定。这种思路很好的概括了现实世界,Agent可以对那些正确的行为做出激励,并对其他的行为进行处罚

 

强化学习的一些形式常常可以被用于非监督学习。另一方面,在尝试出错上,这也是一种非常耗费时间的学习。不过这一类学习可能会非常强大,因为它假定没有事先分类的样本。

 

聚类(clustering)为常见的非监督学习类型,这类学习类型的目标不是让效用函数最大化,而是找到训练数据中的近似点。聚合常常能发现那些与假设匹配的相当好的直观分类。

 

在人工神经网络中,自我组织映射(SOM)和适应性共振理论(ART)则是最常用的非监督式学习。

 

机器学习笔记partI