首页 > 代码库 > 原始感知机入门——python3实现

原始感知机入门——python3实现

  运用最简单的原始(对应的有对偶)感知机算法实现线性分类。

  参考书目:《统计学习方法》(李航)

  算法原理:

  技术分享

  踩到的坑:以为误分类的数据只使用一次,造成分类结果很差,在train函数内加个简单的递归,解决问题;不同的学习率结果差别很大,通过循环学习率取最优解决。

  AND:个人理解尚浅,理论和代码都未免有差错,欢迎指出错误共同学习,不胜感激。

  代码如下:win7 32bit + python3.4 + pycharm

import numpy as np
from matplotlib import pyplot as plt


# train matrix
def get_train_data():		
	M1 = np.random.random((100,2))
	M11 = np.column_stack((M1,np.ones(100)))
	M2 = np.random.random((100,2)) - 0.7
	M22 = np.column_stack((M2,np.ones(100)*(-1)))
	MA = np.vstack((M11,M22))

	plt.plot(M1[:,0],M1[:,1], ‘ro‘)
	plt.plot(M2[:,0],M2[:,1], ‘go‘)
	min_x = np.min(M2)
	max_x = np.max(M1)
	# 此处返回 x 是为了之后作图方便
	x = np.linspace(min_x, max_x, 100)

	return MA,x

# 方便在train函数中识别误分类点
def func(w,b,xi,yi):
	num = yi*(np.dot(w,xi)+b)
	return num

# 训练training data
def train(MA, w, b):
	# M 存储每次处理后依旧处于误分类的原始数据
	M = []
	for sample in MA:
		xi = sample[0:2]
		yi = sample[-1]
		# 如果为误分类,改变w, b
		# n 为学习率
		if func(w,b,xi,yi) <= 0:
			w += n*yi*xi
			b += n*yi
			M.append(sample)
	if len(M) > 0:
		# print(‘迭代...‘)
		train(M, w, b)
	return w,b

# 作出分类线的图
def plot_classify(w,b,x, rate0):
	y = (w[0]*x+b)/((-1)*w[1])
	plt.plot(x,y)
	plt.title(‘Accuracy = ‘+str(rate0))

# 随机生成testing data 并作图
def get_test_data():
	M = np.random.random((50,2))
	plt.plot(M[:,0],M[:,1],‘*y‘)
	return M
# 对传入的testing data 的单个样本进行分类
def classify(w,b,test_i):
	if np.sign(np.dot(w,test_i)+b) == 1:
		return 1
	else:
		return 0

# 测试数据,返回正确率
def test(w,b,test_data):
	right_count = 0
	for test_i in test_data:
		classx = classify(w,b,test_i)
		if classx == 1:
			right_count += 1
	rate  = right_count/len(test_data)
	return rate

if __name__=="__main__":
	MA,x= get_train_data()
	test_data = http://www.mamicode.com/get_test_data()>

   

  输出:

技术分享

 

 技术分享

 

原始感知机入门——python3实现