目标检测中焦点损失的入门指南( 三 )


pt = {0.95 , 当Y act = 1 1-0.05时 , 当Y act = 0时}
CE(FG)= -ln(0.05)= 2.995732273553991
CE(BG)= -ln(1-0.95)= 2.995732273553992
让我们考虑相同的场景 , 即∞=0.25和γ=2 。
FL(FG)= -0.25 (1-0.05)2 ln(0.05)= 0.675912094220619 FL(BG)= -0.75 (1-(1-0.95))2 ln(1-0.95)= 2.027736282661858
非常容易分类的记录假设对预测概率p=0.01的背景对象 , 用预测概率p=0.99对前景进行分类 。
pt = {0.99, 当 Yact=1时 1-0.01 ,当 Yact = 0时}CE(FG)= -ln (0.99) = 0.0100503358535014
CE(BG)= -ln(1-0.01)= 0.0100503358535014
让我们考虑相同的场景 , 即∞=0.25和γ=2 。
FL(FG)= -0.25 (1-0.01)2 ln(0.99)= 2.51 * 10 -7 FL(BG)= -0.75 (1-(1-0.01))2 ln(1-0.01) = 7.5377518901261E-7
最后的想法方案1:0.05129 / 3.2058 10 -7 =小1600倍 方案2:2.3 / 0.667 =小4.5倍 *方案3:0.01 / 0.00000025 =小40,000倍 。
这三个案例清楚地说明了焦点损失如何减小分类良好的记录的权重 , 另一方面又为错误分类或较难分类的记录赋予较大的权重 。
经过大量的试验和实验 , 研究人员发现 ∝ = 0.25和 γ = 2 效果最佳 。
尾注在对象检测中 , 我们经历了从交叉熵损失到焦点损失的整个进化过程 。 我已经尽力解释了目标检测中的焦点损失 。


推荐阅读