欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

loss

程序员文章站 2023-12-31 20:33:16
...

smooth L1 loss能从两个方面限制梯度:
当预测框与 ground truth 差别过大时,梯度值不至于过大;
当预测框与 ground truth 差别很小时,梯度值足够小。

loss过程

#---1在3个尺度上,模型一共会有16800个anchors。
#---2训练的时候,我们需要选择若干个anchors,让基于这些被选中的anchors的预测结果,参与loss的计算。
#---(2)基本的选择规则是,在anchors和某个ground_truth的overlap大于阈值。
#---3对于bbox和landmarks的回归而言,需要把原来基于原图归一化的位置参数,
# (3)转化为基于anchors的归一化参数,然后计算Smooth-L1-LOSS即可。
#---4对于classification而言,2中筛选出来的都是正样本,因此还需要选择一定的负样本,来训练分类任务。

困难样本挖掘:

"困难样本挖掘",其实就是对负样本按照loss大小排序,选择前n个loss大的负样本进行梯度更新。

Loss的代码结构

首次按从预测结果得到三个信息:分别为位置信息,置信度信息,关键点信息。

坐标为

【1,16800,4】 [1,16800,2],[1,16800,10]jiang 

将loss中代码中的每一句的含义看懂了并做了笔记。但整体穿起来还是有点模糊。需要再重新多看看。 

换了新的数据集,将新的数据集从dataset格式转化成原图。代码正在运行中还没跑完。

上一篇:

下一篇: