飞桨深度学习架构师训练营-在学习过程中的几点疑问
@飞桨深度学习架构师训练营-在学习过程中的几点疑问
csdn不能上传自己写的md吗?简单的手敲一遍做个总结。
列举了一些在初次看代码时比较疑惑的地方,以及目前对该问题的理解。
一、眼疾数据集分类的训练过程
1.代码
import os
import random
import paddle
import paddle.fluid as fluid
import numpy as np
DATADIR = '/home/aistudio/work/palm/PALM-Training400/PALM-Training400'
DATADIR2 = '/home/aistudio/work/palm/PALM-Validation400'
CSVFILE = '/home/aistudio/labels.csv'
# 定义训练过程
def train(model):
with fluid.dygraph.guard():
print('start training ... ')
model.train()
epoch_num = 1
# 定义优化器
opt = fluid.optimizer.Momentum(learning_rate=0.001, momentum=0.9, parameter_list=model.parameters())
# 定义数据读取器,训练数据读取器和验证数据读取器
train_loader = data_loader(DATADIR, batch_size=10, mode='train')
valid_loader = valid_data_loader(DATADIR2, CSVFILE)
for epoch in range(epoch_num):
for batch_id, data in enumerate(train_loader()):
x_data, y_data = data
img = fluid.dygraph.to_variable(x_data)
label = fluid.dygraph.to_variable(y_data)
# 运行模型前向计算,得到预测值
logits = model(img)
# 进行loss计算
loss = fluid.layers.sigmoid_cross_entropy_with_logits(logits, label)
avg_loss = fluid.layers.mean(loss)
if batch_id % 10 == 0:
print("epoch: {}, batch_id: {}, loss is: {}".format(epoch, batch_id, avg_loss.numpy()))
# 反向传播,更新权重,清除梯度
avg_loss.backward()
opt.minimize(avg_loss)
model.clear_gradients()
model.eval()
accuracies = []
losses = []
for batch_id, data in enumerate(valid_loader()):
x_data, y_data = data
img = fluid.dygraph.to_variable(x_data)
label = fluid.dygraph.to_variable(y_data)
# 运行模型前向计算,得到预测值
logits = model(img)
# 二分类,sigmoid计算后的结果以0.5为阈值分两个类别
# 计算sigmoid后的预测概率,进行loss计算
pred = fluid.layers.sigmoid(logits)
loss = fluid.layers.sigmoid_cross_entropy_with_logits(logits, label)
# 计算预测概率小于0.5的类别
pred2 = pred * (-1.0) + 1.0
# 得到两个类别的预测概率,并沿第一个维度级联
pred = fluid.layers.concat([pred2, pred], axis=1)
print('pred', pred)
acc = fluid.layers.accuracy(pred, fluid.layers.cast(label, dtype='int64'))
accuracies.append(acc.numpy())
losses.append(loss.numpy())
print("[validation] accuracy/loss: {}/{}".format(np.mean(accuracies), np.mean(losses)))
model.train()
# save params of model
fluid.save_dygraph(model.state_dict(), 'palm')
# save optimizer state
fluid.save_dygraph(opt.state_dict(), 'palm')
2.疑问
(1)前向计算的结果logits,传入sigmod之后,得到一个分类概率pred,这个概率是属于正样本的概率,还是属于负样本的概率?如果pred特指正样本,那为什么前向计算的结果,一定是属于正样本的概率呢?
pred归属于哪个样本,取决于它对应的label。假设它的label是0,pred是0.55,说明它有55%的概率属于负样本。也就是说pred在和label联系起来之前并没有特指某个种类。
(2)sigmod和softmax
sigmod和softmax都可用于分类问题。
1)sigmod
sigmod能把输入值转换到0~1之间。
sigmod公式:
也有的资料说是下面的这个:
sigmod曲线趋势
2)softmax
softmax的输出数据之间存在关联,和为1.
softmax公式
softmax层
3)二分类问题
在二分类问题上,当得出了其中一种可能的概率p1时,就可以推知另一种可能p2的概率
因此在二分类问题上可以用sigmod代替softmax,二者在数学上是等价的(这里没想明白,这俩数值上也不相等呀,只能理解为,两者都可以算概率,用哪一种都行)。
还有部分还没消化,以后补充
二、关于学习深度学习模型的几点疑问
1.学习一个新的模型时,比如yolov3这种代码结构比较复杂的模型,是应该深究每一层网络的处理流程(会耗费大量时间),还是只需要弄清楚,每一层网络输出的数据的格式呢?
2.看yolov3的时候,经常会疑惑,这么复杂的网络是怎么想出来的呢?是尝试着去一层一层凑出来的?为什么会需要这么多的卷积层?
3.飞桨的封装做得很好,在搭建网络时,直接调用想要的网络结构即可,不需要自己去编写特定层的网络结构。
作为深度学习的初学者,有必要每一层网络都自己亲手一层一层搭建吗(搭建网络比较耗时)?还是说,把代码当成能验证猜想的工具,重点应该放在理论上,可是,不清楚每一层的具体结构,或者说数据到了这一层会发生什么样的变化,怎么在网络结构上做合理的更改呢?
4.在硕士阶段,周围的人研究深度学习的时候,大致路线有几种:
(1)找一个完善的模型去适应特定的场景;
(2)找一个完善的模型,在网络结构上增删改;
如果效果很好,就算找到创新点,可以发论文了。这真的算创新吗?有点像野猪蒙着眼睛撞树,撞断哪颗算哪颗,直到撞出一条新路,运气好的就不用头破血流。我以为的创新,不是简单的缝缝补补,在前人的基础上做一点微小的修改,而是整个体系上的变更。我知道很难,但是这不才是做研究应该有的样子吗?我的研究路线还没确定,很疑惑,是不是应该先按着周围人的路线去尝试。
上一篇: python脚本发送邮件
下一篇: 用原生js+html写一个像素鸟游戏