为了账号安全,请及时绑定邮箱和手机立即绑定

神经网络实验:万能函数拟合器

标签:
人工智能

概述

都说神经网络是一个万能的函数拟合器,如何理解这句话呢?让我们做一些实验,去获取更直观的理解。 为了直观与方便理解,我们用神经网络去拟合一元函数,也就是y=f(x)y=f(x)y=f(x)

实验

1. 函数y=xy=xy=x

训练样本

如图所示:

  • 蓝色点代表训练样本,它们都是从函数y=xy=xy=x中取样获得
  • 橙色的直线代表神经网络所表示的函数,目前未训练,与样本偏离较大

思路

拟合一条直线,我们需要使用什么结构的神经网络去拟合它呢?为了理解透彻,我们需要理解单个神经元。

单个神经元的形式为:y=σ(wx+b)y = \sigma(wx+b)y=σ(wx+b)

  • www和bbb为待确定的参数
  • σ\sigmaσ为激活函数

如果去掉σ\sigmaσ,其形式就是y=wx+by = wx+by=wx+b,刚好就是一条直线。也就是说,我们使用一个不带激活函数的神经元,就可以拟合该函数。

实验

如上图所示,使用单个输出神经元,经过20步的训练,神经网络就与目标函数拟合的很好了。所得到的参数如下图所示:

对应的函数为y=1.0x+0.1y=1.0x+0.1y=1.0x+0.1,与目标函数极为接近,再多训练几步即可更为接近。

2. 函数y=|x|

训练样本

该函数是一个分段函数

y={xx≥0−xx<0y = \begin{cases} x & x \ge 0 \ -x & x < 0 \end{cases}y={x−x​x≥0x<0​

思路

由于这里不是直线,这就需要用到非线性激活函数了,它可以将直线弯折。由于不涉及曲线,ReLU是比较合适的激活函数:

观察ReLU函数的曲线,一边是水平直线,另一个是一条斜线。如果能够获得2条ReLU曲线,让他们反向叠加,是不是就可以得到目标曲线了?

最终结果如下:

其中2个隐藏神经元为:

  • y1=ReLU(−x)y_1=\mathrm{ReLU}(-x)y1​=ReLU(−x)
  • y2=ReLU(x)y_2=\mathrm{ReLU}(x)y2​=ReLU(x)

输出神经元为:y=y1+y2y=y_1 + y_2y=y1​+y2​,刚好得到目标曲线。

(以上结果未经参数训练,直接通过手工设置参数获得)

3. 函数

y={x+3−3≤x<03−x0≤x<30othery = \begin{cases} x+3 & -3 \le x < 0 \ 3-x & 0 \le x < 3 \ 0 & other \end{cases}y=⎩⎪⎪⎨⎪⎪⎧​x+33−x0​−3≤x<00≤x<3other​

所需隐藏神经元上升到4个。

4. 函数y=1.8∗sin⁡(3∗x)/x)y = 1.8 * \sin(3 * x) / x)y=1.8∗sin(3∗x)/x)

网络更加复杂,拟合的曲线也不再完美。

总结

随着目标函数变得更加复杂:

  • 对应的神经网络也更加复杂
  • 所需的训练数据量也更多
  • 训练难度越来越大
  • 越来越不直观,越来越难以解释

反过来说,更复杂神经网络、更多的数据量,可以用来拟合更复杂的函数。理论上可以拟合任意函数,当然,网络要无限大,数据量也要无限多。

参考软件

神经网络 神经网络

作者:jerryjee
链接:https://juejin.cn/post/6952792668497936421
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
数据库工程师
手记
粉丝
42
获赞与收藏
202

关注作者,订阅最新文章

阅读免费教程

  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消