为了账号安全,请及时绑定邮箱和手机立即绑定

关于神经网络中loss的问题

/ 猿问

关于神经网络中loss的问题

假设,我构建了只有两层的神经网络(隐藏层加输出层)。

在隐藏层中Zh=WhX + Bh,然后运用激活函数sigmoid,即Yh = sigmoid(Zh),所以说Yh的范围也就是0-1。

然后Yh作为输入值传到输出层,再次用Zo = WoYh + Bo,然后用激活函数sigmiod,即Yo = sigmoid(Zo),Yo是预测值,也就是说Yo的范围也是0-1,再算得loss,即loss = (Y0 - 实际值)^2。

所以loss的图像是个碗形,我们就是要找碗的最低点。

但是我不理解的是,Yo的取值范围是 0-1,假设实际值是很大的数,所以用0.1 - 999的平方,和0.1 - 1000的平方几乎没有差别,假设实际值都是这么大的数,那岂不是无法计算?

初学神经网络,还请指教,谢谢。

查看完整描述

目前暂无任何回答

添加回答

回复

举报

0/150
提交
取消
意见反馈 帮助中心 APP下载
官方微信