首页 > 代码库 > caffe的损失函数

caffe的损失函数

损失函数,一般由两项组成,一项是loss term,另外一项是regularization term。

J=L+R

先说损失项loss,再说regularization项。

1. 分对得分1,分错得分0.gold standard

2. hinge loss(for softmargin svm),J=1/2||w||^2 + sum(max(0,1-yf(w,x)))

3. log los, cross entropy loss function in logistic regression model.J=lamda||w||^2+sum(log(1+e(-yf(wx))))

4. squared loss, in linear regression. loss=(y-f(w,x))^2

5. exponential loss in boosting. J=lambda*R+exp(-yf(w,x))

caffe的损失函数,目前已经囊括了所有可以用的了吧,损失函数由最后一层分类器决定,同时有时会加入regularization,在BP过程中,使得误差传递得以良好运行。

 

 

contrastive_loss,对应contrastive_loss_layer,我看了看代码,这个应该是输入是一对用来做验证的数据,比如两张人脸图,可能是同一个人的(正样本),也可能是不同个人(负样本)。在caffe的examples中,siamese这个例子中,用的损失函数是该类型的。该损失函数具体数学表达形式:

 

 

 

euclidean_loss,对应euclidean_loss_layer,该损失函数就是l=(y-f(wx))^2

hinge_loss,对应hinge_loss_layer,该损失函数就是\ell(y) = \max(0, 1-t \cdot y)。主要用在SVM分类器中,

infogain_loss,对应infogain_loss_layer,损失函数表达式:

multinomial_logistic_loss,对应multinomial_logistic_loss_layer,损失函数表达式:

sigmoid_cross_entropy,对应sigmoid_cross_entropy_loss_layer,损失函数表达式:

softmax_loss,对应softmax_loss_layer,损失函数表达式:

 

 

 

references:

http://www.ics.uci.edu/~dramanan/teaching/ics273a_winter08/lectures/lecture14.pdf

https://github.com/BVLC/caffe

 

caffe的损失函数