为了账号安全,请及时绑定邮箱和手机立即绑定

[深度学习] 损失函数

标签:
深度学习

深度学习中损失函数是整个网络模型的“指挥棒”, 通过对预测样本和真实样本标记产生的误差反向传播指导网络参数学习。

分类任务的损失函数

假设某分类任务共有N个训练样本,针对网络最后分层第 i 个样本的输入特征为XiXi,其对应的标记为YiYi是最终的分类结果(C个分类结果中的一个),h=(h1,h2,...,hch1,h2,...,hc)为网络的最终输出,即样本 i 的预测结果。其中 C 是最后所有分类的数量。

交叉熵损失函数(cross entropy)

交叉熵损失函数又叫 softmax 损失函数。 是目前卷积神经网络中最常用的分类目标损失函数。
举个例子,比如 C = 3 ,也就是最后分类结果有三种,分别是0,1,2.假设对于第 i 个样本正确分类是1,h=(2,5,1),那么交叉熵损失函数就等于:
-(1 / 3)* (log((e^5) / (e^2 + e^5 + e^1)))

LcrossEntropyLoss=LsoftmaxLoss=−1Nlog(ehyi∑Cj=1ehj)LcrossEntropyLoss=LsoftmaxLoss=1Nlog(ehyij=1Cehj)


合页损失函数(hinge loss)

合页函数广泛在支持向量机中使用,有时也会在损失函数中使用。

LhingeLoss=1N∑i=1Nmax(0,1−hyi)LhingeLoss=1Ni=1Nmax(0,1hyi)


在分类任务中,通常使用交叉熵函数要优于使用合页损失函数。
缺点:合页损失函数是对错误越大的样本施以更严重的惩罚。可是这样会导致损失函数对噪音敏感。举例,如果一个样本的标记错误或者是离群点,则由于错分导致分类误差会很大,如此便会影响整个分类超平面的学习,从而降低模型泛化能力。

坡道损失函数(ramp loss function)

优点:克服了合页损失函数鲁棒性差的特点,对噪声数据和离群数据有很好的抗噪能力。因此也被称作鲁棒损失函数。这类损失函数的特点是在分类(回归)问题误差较大区域进行了截断,使得较大的误差不再影响整个损失函数。

LrampLoss=LhingeLoss−1Nmax(0,s−hyi)LrampLoss=LhingeLoss1Nmax(0,shyi)


=1N∑i=1N(max(0,1−hyi)−max(0,s−hyi))=1Ni=1N(max(0,1hyi)max(0,shyi))


s指定了截断点的位置。
合页损失函数和坡道损失函数对比图:
这里写图片描述

截断点 s = - 0.5 。
问题:坡道损失函数在x=1 和 x=s两处不可导,如何进行误差方向传播。真实情况下并不要求必须严格满足数学上的连续。因为计算机内部的浮点计算并不会得到完全导数落在尖点上的非常情况,最多只会落在尖点附近,仅需给出对应的导数值,因此数学上的尖点不影响使用。
对于截断点的设置,s的取值最好根据类别数C来定,一般设置为s = -1 / (C - 1)

交叉熵损失函数, 合页损失函数和坡道损失函数只是简单衡量模型预测值与样本真实值之间的误差从而指导训练。他们并没有显示的将特征判别性学习考虑到整个网络训练中,对此,为了进一步提高学习到的特征表示的判别性,近期研究者设计了一些新的损失函数如下:

大间隔交叉熵损失函数

网络的输出结果 h 实际上是全连接层参数 W 和最后一层的特征向量xixi的内积, 即h=WTxih=WTxi。(为了简洁并未加入偏置 b ),因此传统的交叉熵损失函数可以表现为:

LsoftmaxLoss=−1N∑i=1Nlog(eWTyixi∑Cj=1eWTjxi)LsoftmaxLoss=1Ni=1Nlog(eWyiTxij=1CeWjTxi)


其中WTiWiTWW的第 i 列参数, 则WTixiWiTxi是一个具体的数据, 根据内积的定义,可以转换为下式子:

LsoftmaxLoss=−1N∑i=1Nlog(e||Wyi||||xi||cos(θyi)∑Cj=1e||Wyi||||xi||cos(θj))LsoftmaxLoss=1Ni=1Nlog(e||Wyi||||xi||cos(θyi)j=1Ce||Wyi||||xi||cos(θj))


式子中θjθj(0 <=θjθj<=ππ)为WTiWiTxixi的夹角

以二分类为例,我们希望正确样本的分数大于错误样本的分数,因此希望参数WT1xiiW1Txii>WT2xiiW2Txii, 也就是||W1|| ||xi|| cos(θ1θ1) > ||W2|| ||xi|| cos(θ2θ2)。

那么大间隔交叉熵损失函数为了让特征更具有分辨能力则在这个基础上要求两者差距更大,于是引入m拉开差距, 这便是大间隔的由来。||W1|| ||xi|| cos(mθ1) > ||W2|| ||xi|| cos(θ2) (0 <=θ1θ1<=πmπm)。式子中m为正整数,起到控制间隔大小的作用,m越大,类间间隔越大。反之亦然。  当m=1, 大间隔交叉熵损失函数退化为传统的交叉熵损失函数。

综上: ||W1|| ||xixi|| cos(θ1θ1) >= ||W1|| ||xixi|| cos(mθ1θ1) >  ||W2|| ||xi|| cos(θ2θ2)

定义:

LlargeMarginSoftmaxLoss=−1N∑i=1Nlog(e||Wyi||||xi||ϕ(θyi)e||Wyi||||xi||ϕ(θyi)+∑j!=yie||Wyi||||xi||cos(θj))LlargeMarginSoftmaxLoss=1Ni=1Nlog(e||Wyi||||xi||ϕ(θyi)e||Wyi||||xi||ϕ(θyi)+j!=yie||Wyi||||xi||cos(θj))


相比于传统的交叉熵损失函数,仅仅是将第i类间隔拉大了, 其中:

ϕ(θ)=(−1)kcos(mθ)−2kϕ(θ)=(1)kcos(mθ)2k


θ=[kπm,(k+1)πm]θ=[kπm,(k+1)πm]


k   为整数, k 属于[0, m-1]

下图表示了在二分类情况下,W1, W2 的模在等于, 小于, 大于三种不同关系下的决策边界。

这里写图片描述

可以看出大间隔交叉熵损失函数扩大了类间的距离, 由于它不仅要求分类正确且要求分开的类保持较大的间隔。使得目标比传统交叉熵更加困难。训练目标变得困难带来的一个额外的好处就是起到防止过拟合的作用。并且在分类性能方面,大间隔交叉熵损失函数要优于交叉熵损失函数和合页函数。

中心损失函数

大间隔交叉熵损失函数主要考虑增加类间距离, 而中心损失函数则在考虑类间距离的同时还将一些注意力放在减少类间差异上。

中心损失函数定义:

LcenterLoss=12∑i=1N||xi−cyi||22LcenterLoss=12i=1N||xicyi||22


其中cyicyi为第yiyi类所有深度特征的均值(中心),因此叫中心损失函数。直观上,上式迫使所有隶属于yi类的样本和中心不要太远,否则将增大惩罚。在实际中,由于中心损失函数本身考虑类内差异,因此中心损失函数应与主要考虑类间的损失函数配合使用,如交叉熵函数,例如:

Lfinal=LcrossEntropyLoss+λLcenterLossLfinal=LcrossEntropyLoss+λLcenterLoss


式子中 λ 为两个损失函数之间的调节,λ 越大类内差异占整个目标函数较大比重。

回归任务的损失函数

在分类任务中,样本的真实标记实际上对应 one hot vector : 对样本ii, 该向量在yiyi处为 1 表征该样本的真实隶属类别,而其余C-1维均为0。 在回归任务中,回归任务真实标记每一维为一个实数, 而非二值。
在介绍不同回归任务的损失函数之前,首先介绍一个回归的基本概念,残差或称预测误差,用于衡量预测值和真实标记的靠近程度。假设回归问题对应第ii个输入特征xixi的真实标记为yi=(y1,y2,y3,...,yM)yi=y1,y2,y3,...,yM, M为标记向量的总维度,则litlti即表示样本ii在网络回归预测值y′tyt与真实值在第t维的预测误差:

lit=yt−y′tlti=ytyt


l1损失函数

常用的回归问题的损失函数是l1 和 l2损失函数。对N个样本的L1损失函数定义如下:

Ll1Loss=1N∑i=1N∑t=1M|lit|Ll1Loss=1Ni=1Nt=1M|lti|


l2损失函数

Ll2Loss=1N∑i=1N∑t=1M|lit|2Ll2Loss=1Ni=1Nt=1M|lti|2


Tukey’s biweight 损失函数

同分类中提到的坡道损失函数一样, Tukey’s biweight损失函数也是一类非凸损失函数。可克服回归任务中离群点或样本噪声对整体回归模型的干扰和影响,是回归任务中一种鲁棒的损失函数,其定义:

LTukey=c26N∑Ni=1∑Mt=1[1−(1−(litc)2)3],c2M6,|lit|<=cother valuesLTukey={c26Ni=1Nt=1M[1(1(ltic)2)3],|lti|<=cc2M6,other values


这里写图片描述

式子中,常数C指定了函数拐点,需要指出的是,该超参数并不需要人为设定,常用的C=4.6851 时, Tukey’s biweight损失函数可取得与 l2 损失函数 在最小化符合标准正态分布的残差类似的回归效果。

参考

解析卷积神经网络——深度学习实践手册

原文出处

点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消