loss
程序员文章站
2023-12-31 20:33:16
...
smooth L1 loss能从两个方面限制梯度:
当预测框与 ground truth 差别过大时,梯度值不至于过大;
当预测框与 ground truth 差别很小时,梯度值足够小。
loss过程
#---1在3个尺度上,模型一共会有16800个anchors。
#---2训练的时候,我们需要选择若干个anchors,让基于这些被选中的anchors的预测结果,参与loss的计算。
#---(2)基本的选择规则是,在anchors和某个ground_truth的overlap大于阈值。
#---3对于bbox和landmarks的回归而言,需要把原来基于原图归一化的位置参数,
# (3)转化为基于anchors的归一化参数,然后计算Smooth-L1-LOSS即可。
#---4对于classification而言,2中筛选出来的都是正样本,因此还需要选择一定的负样本,来训练分类任务。
困难样本挖掘:
"困难样本挖掘",其实就是对负样本按照loss大小排序,选择前n个loss大的负样本进行梯度更新。
Loss的代码结构
首次按从预测结果得到三个信息:分别为位置信息,置信度信息,关键点信息。
坐标为
【1,16800,4】 [1,16800,2],[1,16800,10]jiang
将loss中代码中的每一句的含义看懂了并做了笔记。但整体穿起来还是有点模糊。需要再重新多看看。
换了新的数据集,将新的数据集从dataset格式转化成原图。代码正在运行中还没跑完。
推荐阅读
-
对Dice loss的理解
-
loss
-
使用tensorboard可视化loss和acc的实例
-
TensorFlow绘制loss/accuracy曲线的实例
-
Mobilenetv3-ssd训练VOC格式数据集loss出现nan:数据本身出现问题
-
Ubuntu16.04下实现darknet-yolov3训练自己的数据(含loss图、mAP计算)
-
TensorFlow绘制loss/accuracy曲线的实例
-
CS231N-Lecture3 Loss Functions and Optimization
-
tensorflow学习笔记(北京大学) tf4_5.py 完全解析 设损失函数 loss=(w+1)^2
-
Pytorch练习--使用Axes3D的库绘制3D的Loss曲线