首页 > 代码库 > Machine Learning - week 2 - 编程
Machine Learning - week 2 - 编程
3. % J = COMPUTECOST(X, y, theta) computes the cost of using theta as the
% parameter for linear regression to fit the data points in X and y
传入的参数的 size
<style></style>size(X)
ans =
m n
octave:4> size(y)
ans =
m 1
octave:5> size(theta)
ans =
n 1
根据公式
hθ(x) = X * theta,size 为 m * 1。然后与 y 相减,再对所有元素取平方,之后求和。具体代码如下
function J = computeCost(X, y, theta)% Initialize some useful valuesm = length(y); % number of training examplesJ = 0;h = X * thetaJ = 1/(2*m) * sum( (h - y) .^ 2 )end
gradientDescent
i 表示的行数,j 表示的是列数。每列表示一个 feature。xj(i) 表示第 j 列第 i 个。如何用向量表示这个乘法?
首先,弄清楚 的意思。(对于每行 x 与对应的 y)预期值与真实值的差值 * 对应行的 x 的第 j 列个。j 与 θ 是对应的。下面是代码
function [theta, J_history] = gradientDescent(X, y, theta, alpha, num_iters)m = length(y); % number of training examplesn = columns(X);J_history = zeros(num_iters, 1);for iter = 1:num_iters h = X * theta; for j = 1:n % 差值点乘 delta = alpha/m * sum( (h - y) .* X(:, j)); theta(j) = theta(j) - delta; end % Save the cost J in every iteration J_history(iter) = computeCost(X, y, theta);endend
点乘,对应元素相乘
[1; 2; 3] .* [2; 2; 2]ans = 2 4 6
先弄清楚公式的意思,再寻找 Octave 中的表示方法。
等高线图怎么看
这是练习脚本生成的等高线。
同一条线、圆上的高度(y 值)是相同的,越密的地方变化越缓慢,反之变化越剧烈。
Machine Learning - week 2 - 编程
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。