-
w、b两个参数的计算
查看全部 -
梯度下降
损失函数函数面
求导后找到函数的变化方向
如果损失函数趋近一个全局最小值,那预测的Y值与对应的真实Y值差异最小
通过损失函数取到最小值的过程调整w、d
查看全部 -
全部训练的损失
查看全部 -
学习出的Y值与真实的Y值之间的差距
学习出的Y值与原始集中给出的标准值之间的差异
查看全部 -
常用激励函数,ReLU为默认函数
查看全部 -
激励函数作用
查看全部 -
神经元结构——例子
前面一部分是把输入或者前一个层输入的数据计算出一个线性结果,然后g(Z)函数称之为激活函数,把这一结果非线性化
查看全部 -
网络结构
X1-X3身后的圆圈、隐含层
隐含层后的圆圈:输出层
x1-x3传入隐含层计算,然后在输出层得到结果,最后或得学习后的值
查看全部 -
图像和语音是密集型矩阵,文本是稀疏型矩阵。
图像:图像识别,如自动驾驶。
语音:语音助手。
文本:新闻推送。
查看全部 -
神经网络就是分类
查看全部 -
神经网络训练过程
查看全部 -
常用激励函数:
查看全部 -
激励函数的作用:提供规模化的非线性化能力
查看全部 -
逻辑回归是一种最简化的网络结构
查看全部 -
线性组合、非线性处理。
g(z)激活函数
查看全部
举报
0/150
提交
取消