Coursera-MachineLearning-LogisticRegression
程序员文章站
2022-07-06 11:07:52
...
Octave 代码
背景:使用逻辑回归预测学生是否会被大学录取。
% 1.读取训练集,并打印正负样本:
data = load('ex2data1.txt');
X = data(:, [1, 2]);
y = data(:, 3);
plotData(X, y);
% 函数plotData:
function plotData(X, y)
figure; hold on;
% 打印正样本和负样本
positive = find(y == 1);
negative = find(y == 0);
plot(X(positive, 1), X(positive, 2), 'k+', 'LineWidth', 2, 'MarkerSize', 7);
plot(X(negative, 1), X(negative, 2), 'ko', 'MarkerFaceColor', 'y', 'MarkerSize', 7);
hold off;
end
hold on;
% Labels and Legend
xlabel('Exam 1 score')
ylabel('Exam 2 score')
legend('Admitted', 'Not admitted')
hold off;
% 2.计算代价函数J 和下降梯度
[m, n] = size(X);
X = [ones(m, 1) X];
initial_theta = zeros(n + 1, 1);
% 计算代价函数,使用初始化全为0的计算代价
[cost, grad] = costFunction(initial_theta, X, y);
% 函数costFunction:
function [J, grad] = costFunction(theta, X, y)
m = length(y);
J = 0;
grad = zeros(size(theta));
% 计算代价和梯度grad,公式如下图:
J = -1 / m *(sum(y .* log(sigmoid(X * theta)) + (1 - y) .* log(1 - sigmoid(X * theta))));
grad = 1 / m * X' * (sigmoid(X * theta) - y);
end
fprintf('\nCost at test theta: %f\n', cost);
fprintf(' %f \n', grad);
% 再次计算代价函数,使用测试的theta:
test_theta = [-24; 0.2; 0.2];
[cost, grad] = costFunction(test_theta, X, y);
fprintf('\nCost at test theta: %f\n', cost);
fprintf(' %f \n', grad);
2.1 假设函数由来:
逻辑回归是分类问题,若使用线性回归的假设函数,h(x)会不是确定的范围的值。
如下图,h(x)>0.5 是 yes, h(x)<0.5 是 no,这里分界是0.5,但到其他问题分界线就会变
2.1.1 因此我们需要将结果缩到 [0,1] 中,这样方便判断,
分界线永远为0.5,函数值大于0.5就为yes,小于0.5为no
因此使用 sigmoid函数,并把之前线性回归的假设函数theta * x
带入:
这样 theta * x > 0,则 g(z) > 0.5,则 判断为1
theta * x < 0,则 g(z) < 0.5,则 判断为0
因此 g(z) 即为逻辑回归的假设函数
2.2 代价函数J 由来
若将上述假设函数 g(z) 带入线性回归的代价函数,得到的不是凸函数,
即有很多局部最小值,不利于梯度下降:
2.2.1 因此不能用线性回归的代价函数了,用个新的:
这样是凸函数,然后合并一下:
2.2.3 上述就是逻辑回归的代价函数J,还可以优化一下,将各项的和用矩阵的方式
实现:
2.3 梯度下降的由来:
首先由梯度下降的一般公式,然后将代价函数带入,并对 theta 求偏导数,
再乘步长 a :
% 3. 使用高级优化(Advanced Optimization)来更新 theta
% 'GradObj', -'on':设置梯度目标参数为on打开状态
% 'MaxIter', -100:设置最大迭代次数400
options = optimset('GradObj', 'on', 'MaxIter', 400);
% 运行 fminunc 就可以得到最佳 theta,并打印
% @是函数指针
[theta, cost] = fminunc(@(t)(costFunction(t, X, y)), initial_theta, options);
fprintf('Cost at theta found by fminunc: %f\n', cost);
fprintf(' %f \n', theta);
plotDecisionBoundary(theta, X, y);
hold on;
xlabel('Exam 1 score')
ylabel('Exam 2 score')
legend('Admitted', 'Not admitted')
hold off;
% 函数plotDecisionBoundary:
function plotDecisionBoundary(theta, X, y)
% 先打印训练集数据
plotData(X(:,2:3), y);
hold on
%这里不太懂怎么打印
% else后是打印便捷,先随机生成 -1到1.5 50个数字,
% 然后用mapFeatures生成 X1, X2, X1.^2, X2.^2, X1*X2, X1*X2.^2, etc..
% 足够特征后打印
if size(X, 2) <= 3
plot_x = [min(X(:,2))-2, max(X(:,2))+2];
plot_y = (-1./theta(3)).*(theta(2).*plot_x + theta(1));
plot(plot_x, plot_y)
legend('Admitted', 'Not admitted', 'Decision Boundary')
axis([30, 100, 30, 100])
else
u = linspace(-1, 1.5, 50);
v = linspace(-1, 1.5, 50);
z = zeros(length(u), length(v));
for i = 1:length(u)
for j = 1:length(v)
z(i,j) = mapFeature(u(i), v(j))*theta;
end
end
z = z';
contour(u, v, z, [0, 0], 'LineWidth', 2)
end
hold off
end
% 4.预测一波,并判断准确性
% 假设函数:hθ(x) = g(θ'x) = sgmoid(x * theta)
prob = sigmoid([1 45 85] * theta);
fprintf(['For a student with scores 45 and 85, we predict an admission ' ...
'probability of %f\n'], prob);
fprintf('Expected value: 0.775 +/- 0.002\n\n');
% 基于训练集计算准确性
p = predict(theta, X);
fprintf('Train Accuracy: %f\n', mean(double(p == y)) * 100);