欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

飞桨深度学习架构师训练营-在学习过程中的几点疑问

程序员文章站 2022-04-07 15:49:30
...

@飞桨深度学习架构师训练营-在学习过程中的几点疑问
csdn不能上传自己写的md吗?简单的手敲一遍做个总结。
列举了一些在初次看代码时比较疑惑的地方,以及目前对该问题的理解。

一、眼疾数据集分类的训练过程

1.代码

import os
import random
import paddle
import paddle.fluid as fluid
import numpy as np

DATADIR = '/home/aistudio/work/palm/PALM-Training400/PALM-Training400'
DATADIR2 = '/home/aistudio/work/palm/PALM-Validation400'
CSVFILE = '/home/aistudio/labels.csv'

# 定义训练过程
def train(model):
    with fluid.dygraph.guard():
        print('start training ... ')
        model.train()
        epoch_num = 1
        # 定义优化器
        opt = fluid.optimizer.Momentum(learning_rate=0.001, momentum=0.9, parameter_list=model.parameters())
        # 定义数据读取器,训练数据读取器和验证数据读取器
        train_loader = data_loader(DATADIR, batch_size=10, mode='train')
        valid_loader = valid_data_loader(DATADIR2, CSVFILE)
        for epoch in range(epoch_num):
            for batch_id, data in enumerate(train_loader()):
                x_data, y_data = data
                img = fluid.dygraph.to_variable(x_data)
                label = fluid.dygraph.to_variable(y_data)
                # 运行模型前向计算,得到预测值
                logits = model(img)
                # 进行loss计算
                loss = fluid.layers.sigmoid_cross_entropy_with_logits(logits, label)
                avg_loss = fluid.layers.mean(loss)

                if batch_id % 10 == 0:
                    print("epoch: {}, batch_id: {}, loss is: {}".format(epoch, batch_id, avg_loss.numpy()))
                # 反向传播,更新权重,清除梯度
                avg_loss.backward()
                opt.minimize(avg_loss)
                model.clear_gradients()

            model.eval()
            accuracies = []
            losses = []
            for batch_id, data in enumerate(valid_loader()):
                x_data, y_data = data
                img = fluid.dygraph.to_variable(x_data)
                label = fluid.dygraph.to_variable(y_data)
                # 运行模型前向计算,得到预测值
                logits = model(img)
                # 二分类,sigmoid计算后的结果以0.5为阈值分两个类别
                # 计算sigmoid后的预测概率,进行loss计算
                pred = fluid.layers.sigmoid(logits)
                loss = fluid.layers.sigmoid_cross_entropy_with_logits(logits, label)
                # 计算预测概率小于0.5的类别
                pred2 = pred * (-1.0) + 1.0
                # 得到两个类别的预测概率,并沿第一个维度级联
                pred = fluid.layers.concat([pred2, pred], axis=1)
                print('pred', pred)
                acc = fluid.layers.accuracy(pred, fluid.layers.cast(label, dtype='int64'))
                accuracies.append(acc.numpy())
                losses.append(loss.numpy())
            print("[validation] accuracy/loss: {}/{}".format(np.mean(accuracies), np.mean(losses)))
            model.train()

        # save params of model
        fluid.save_dygraph(model.state_dict(), 'palm')
        # save optimizer state
        fluid.save_dygraph(opt.state_dict(), 'palm')

2.疑问
(1)前向计算的结果logits,传入sigmod之后,得到一个分类概率pred,这个概率是属于正样本的概率,还是属于负样本的概率?如果pred特指正样本,那为什么前向计算的结果,一定是属于正样本的概率呢?
pred归属于哪个样本,取决于它对应的label。假设它的label是0,pred是0.55,说明它有55%的概率属于负样本。也就是说pred在和label联系起来之前并没有特指某个种类。
(2)sigmod和softmax
sigmod和softmax都可用于分类问题。
1)sigmod
sigmod能把输入值转换到0~1之间。

sigmod公式:

y=11+ex y=\frac{1}{1+e^{-x}}
也有的资料说是下面的这个:
y=ex1+ex y=\frac{e^{-x}}{1+e^{-x}}
sigmod曲线趋势飞桨深度学习架构师训练营-在学习过程中的几点疑问
2)softmax
softmax的输出数据之间存在关联,和为1.
softmax公式飞桨深度学习架构师训练营-在学习过程中的几点疑问

softmax层

飞桨深度学习架构师训练营-在学习过程中的几点疑问
3)二分类问题
在二分类问题上,当得出了其中一种可能的概率p1时,就可以推知另一种可能p2的概率p1=1p2p_1=1-p_2
因此在二分类问题上可以用sigmod代替softmax,二者在数学上是等价的(这里没想明白,这俩数值上也不相等呀,只能理解为,两者都可以算概率,用哪一种都行)。
飞桨深度学习架构师训练营-在学习过程中的几点疑问

还有部分还没消化,以后补充

二、关于学习深度学习模型的几点疑问

1.学习一个新的模型时,比如yolov3这种代码结构比较复杂的模型,是应该深究每一层网络的处理流程(会耗费大量时间),还是只需要弄清楚,每一层网络输出的数据的格式呢?
2.看yolov3的时候,经常会疑惑,这么复杂的网络是怎么想出来的呢?是尝试着去一层一层凑出来的?为什么会需要这么多的卷积层?
3.飞桨的封装做得很好,在搭建网络时,直接调用想要的网络结构即可,不需要自己去编写特定层的网络结构。
作为深度学习的初学者,有必要每一层网络都自己亲手一层一层搭建吗(搭建网络比较耗时)?还是说,把代码当成能验证猜想的工具,重点应该放在理论上,可是,不清楚每一层的具体结构,或者说数据到了这一层会发生什么样的变化,怎么在网络结构上做合理的更改呢?
4.在硕士阶段,周围的人研究深度学习的时候,大致路线有几种:
(1)找一个完善的模型去适应特定的场景;
(2)找一个完善的模型,在网络结构上增删改;
如果效果很好,就算找到创新点,可以发论文了。这真的算创新吗?有点像野猪蒙着眼睛撞树,撞断哪颗算哪颗,直到撞出一条新路,运气好的就不用头破血流。我以为的创新,不是简单的缝缝补补,在前人的基础上做一点微小的修改,而是整个体系上的变更。我知道很难,但是这不才是做研究应该有的样子吗?我的研究路线还没确定,很疑惑,是不是应该先按着周围人的路线去尝试。