-
主要功能 1 分类识别 f(x) -> cat 图像、语音(密集型矩阵) 文本(吸收型矩阵) 自动驾驶 语音助手 新闻推送查看全部
-
仿生学产品查看全部
-
损失函数 单次训练损失查看全部
-
激励函数:Sigmoid tanh ReLU查看全部
-
损失函数y 对整个逻辑回归过程逆向进行评判查看全部
-
z(x)线性函数 g(z)非线性函数 激活函数查看全部
-
首先隐含层将x值用z的函数线性表示,然后输出层中的激活函数g(x)将x由线性组合编程非线性组合查看全部
-
网络结构?? 激励函数?? 损失函数?? 梯度下降??查看全部
-
学习查看全部
-
神经网络分类查看全部
-
神经网络--逻辑回归梯度下降查看全部
-
神经网络--全部训练损失函数查看全部
-
神经网络--单次训练损失函数查看全部
-
神经网络--激励函数查看全部
-
一次正向运算就可以得到一个y(预测值),根据这个预测y与真实y之间的差异得到损失函数,每一个损失函数都可表示成一个面,那么这个面上有最大值也有最小值,这是根据地图下降得到这个面上的最小值(这个点就是预测y与实际y之间的差异最小),根据这个点来调整W,b,这是一次计算加调整,神经网络就是经过多次计算与调整,最终的W,b,趋于稳定,这时就得到了一个最优的逻辑回归方程(最接近实际问题的),也即得到了这个神经网络训练出来的最优模型。查看全部
举报
0/150
提交
取消