欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

Coursera-MachineLearning-LogisticRegression

程序员文章站 2022-07-06 11:07:52
...

Octave 代码
背景:使用逻辑回归预测学生是否会被大学录取。

% 1.读取训练集,并打印正负样本:

data = load('ex2data1.txt');
X = data(:, [1, 2]); 
y = data(:, 3);

plotData(X, y);

% 函数plotData:
function plotData(X, y)

figure; hold on;
% 打印正样本和负样本
positive = find(y == 1);
negative = find(y == 0);
plot(X(positive, 1), X(positive, 2), 'k+', 'LineWidth', 2, 'MarkerSize', 7);
plot(X(negative, 1), X(negative, 2), 'ko', 'MarkerFaceColor', 'y', 'MarkerSize', 7);

hold off;
end

hold on;
% Labels and Legend
xlabel('Exam 1 score')
ylabel('Exam 2 score')

legend('Admitted', 'Not admitted')
hold off;

Coursera-MachineLearning-LogisticRegression

% 2.计算代价函数J 和下降梯度

[m, n] = size(X);
X = [ones(m, 1) X];
initial_theta = zeros(n + 1, 1);

% 计算代价函数,使用初始化全为0的计算代价
[cost, grad] = costFunction(initial_theta, X, y);

% 函数costFunction:
function [J, grad] = costFunction(theta, X, y)

m = length(y); 
J = 0;
grad = zeros(size(theta));

% 计算代价和梯度grad,公式如下图:
J = -1 / m *(sum(y .* log(sigmoid(X * theta)) + (1 - y) .* log(1 - sigmoid(X * theta))));
grad =  1 / m * X' * (sigmoid(X * theta) - y);

end

fprintf('\nCost at test theta: %f\n', cost);
fprintf(' %f \n', grad);

% 再次计算代价函数,使用测试的theta:
test_theta = [-24; 0.2; 0.2];
[cost, grad] = costFunction(test_theta, X, y);
fprintf('\nCost at test theta: %f\n', cost);
fprintf(' %f \n', grad);

2.1 假设函数由来:
	逻辑回归是分类问题,若使用线性回归的假设函数,h(x)会不是确定的范围的值。
	如下图,h(x)>0.5 是 yes, h(x)<0.5 是 no,这里分界是0.5,但到其他问题分界线就会变

Coursera-MachineLearning-LogisticRegression

2.1.1 因此我们需要将结果缩到 [0,1] 中,这样方便判断,
	  分界线永远为0.5,函数值大于0.5就为yes,小于0.5为no
	  因此使用 sigmoid函数,并把之前线性回归的假设函数theta * x
	  带入:
	  这样 theta * x > 0,则 g(z) > 0.5,则 判断为1
	  	   theta * x < 0,则 g(z) < 0.5,则 判断为0
	  
	  因此 g(z) 即为逻辑回归的假设函数

Coursera-MachineLearning-LogisticRegression
Coursera-MachineLearning-LogisticRegression

2.2 代价函数J 由来
	若将上述假设函数 g(z) 带入线性回归的代价函数,得到的不是凸函数,
	即有很多局部最小值,不利于梯度下降:

Coursera-MachineLearning-LogisticRegression

2.2.1 因此不能用线性回归的代价函数了,用个新的:
	  这样是凸函数,然后合并一下:

Coursera-MachineLearning-LogisticRegression
Coursera-MachineLearning-LogisticRegression
Coursera-MachineLearning-LogisticRegression

2.2.3 上述就是逻辑回归的代价函数J,还可以优化一下,将各项的和用矩阵的方式
	  实现:

Coursera-MachineLearning-LogisticRegression

2.3 梯度下降的由来:
首先由梯度下降的一般公式,然后将代价函数带入,并对 theta 求偏导数,
再乘步长 a :

Coursera-MachineLearning-LogisticRegression
Coursera-MachineLearning-LogisticRegression
Coursera-MachineLearning-LogisticRegression

% 3. 使用高级优化(Advanced Optimization)来更新 theta

% 'GradObj', -'on':设置梯度目标参数为on打开状态
% 'MaxIter', -100:设置最大迭代次数400
options = optimset('GradObj', 'on', 'MaxIter', 400);

% 运行 fminunc 就可以得到最佳 theta,并打印
% @是函数指针
[theta, cost] = fminunc(@(t)(costFunction(t, X, y)), initial_theta, options);

fprintf('Cost at theta found by fminunc: %f\n', cost);
fprintf(' %f \n', theta);

plotDecisionBoundary(theta, X, y);
hold on;
xlabel('Exam 1 score')
ylabel('Exam 2 score')
legend('Admitted', 'Not admitted')
hold off;

% 函数plotDecisionBoundary:
function plotDecisionBoundary(theta, X, y)

% 先打印训练集数据
plotData(X(:,2:3), y);
hold on

%这里不太懂怎么打印
% else后是打印便捷,先随机生成 -1到1.5 50个数字,
% 然后用mapFeatures生成 X1, X2, X1.^2, X2.^2, X1*X2, X1*X2.^2, etc..
% 足够特征后打印
if size(X, 2) <= 3
    plot_x = [min(X(:,2))-2,  max(X(:,2))+2];
    plot_y = (-1./theta(3)).*(theta(2).*plot_x + theta(1));
    plot(plot_x, plot_y)
    legend('Admitted', 'Not admitted', 'Decision Boundary')
    axis([30, 100, 30, 100])
else
    u = linspace(-1, 1.5, 50);
    v = linspace(-1, 1.5, 50);
    z = zeros(length(u), length(v));

    for i = 1:length(u)
        for j = 1:length(v)
            z(i,j) = mapFeature(u(i), v(j))*theta;
        end
    end
    
    z = z'; 
    contour(u, v, z, [0, 0], 'LineWidth', 2)
end
hold off
end

Coursera-MachineLearning-LogisticRegression

% 4.预测一波,并判断准确性

% 假设函数:hθ(x) = g(θ'x) = sgmoid(x * theta)
prob = sigmoid([1 45 85] * theta);
fprintf(['For a student with scores 45 and 85, we predict an admission ' ...
         'probability of %f\n'], prob);
fprintf('Expected value: 0.775 +/- 0.002\n\n');

% 基于训练集计算准确性
p = predict(theta, X);
fprintf('Train Accuracy: %f\n', mean(double(p == y)) * 100);