为了账号安全,请及时绑定邮箱和手机立即绑定

Rosenblatt感知器的结构 与基本原理

标签:
大数据

Rosenblatt感知器详解

在学习了机器学习十大算法之后,我决定将目光投向神经网络,从而攀登深度学习的高峰。这条险路的第一个拦路虎就是Rosenblatt感知器。为什么这么说呢?不仅是因为它开拓性的贡献——感知器是第一个从算法上完整描述的神经网络,而Rosenblatt感知器是感知器作为监督学习的第一个模型。还因为学习Rosenblatt感知器能够帮助了解神经元的结构、信息流的传递以及知识的学习和存储,从而打开看待问题的全新视角——模拟人脑解决问题。当然,仅仅如此的话,它只能说是可口的羔羊,谈不上拦路的猛虎。自然是在理解这一问题时遇到了难处:1)Rosenblatt感知器为什么能收敛?《神经网络与机器学习》中的证明并不理想,它忽略了学习率和初始权重向量的影响;2)学习率和初始权重向量对迭代次数的影响是什么?3)它的更新过程与梯度下降法如此相似,不禁想问两者之间有何联系?4)线性可分两类问题通常在寻找一个分割超平面,Rosenblatt感知器也不例外,能否将这个超平面可视化,从而帮助理解?看!这真的是一个威风凛凛的猛虎,但它吓不倒人。下面开始我们的打虎过程。


认识这只虎——Rosenblatt感知器的结构

介绍感知器就不得不谈神经元的结构。神经元由突触、响应器、激活函数组成,顺序响应输入信号,最终获得输出结果。如图1所示,首先,输入信号的每一个分量由突触加权,再与偏置一起由响应器求和,之后通过激活函数获得输出。

响应器对突触加权后的信号和偏置求和,得到响应值:

https://img1.sycdn.imooc.com//5b4752780001b9fe05540063.jpg

常用的激活函数有阈值函数,Sigmoid函数和tanh函数。为纪念McCulloch和Pitts(1943)的开拓性工作,激活函数为阈值函数的神经元也被称为McCulloch-Pitts模型,此时:

https://img1.sycdn.imooc.com//5b4752810001207805540063.jpg

https://img1.sycdn.imooc.com//5b4752890001827404900272.jpg

图1 神经元结构

Rosenblatt感知器建立在McCulloch-Pitts神经元模型上,以解决线性可分的两类问题。两类记为{+1,-1},此时:

https://img1.sycdn.imooc.com//5b475291000196b605540063.jpg

在神经元进行学习分类问题时,每一个样本都将作为一个刺激传入神经元。输入信号是每一个样本的特征,期望的输出是该样本的类别。当输出与类别不同时,我们将调整突触权值,直到每个样本的输出与类别相同。


老虎要发威——Rosenblatt感知器的更新过程

到目前为止,我们了解了Rosenblatt感知器的工作流程,但还没有解释它如何对于误分类的刺激调整权重值。在此之前,我们先定义输入的数据,方便后续的描述及推导。假设我们的样本采自m维空间Rm,每个样本由特征值和类别组成,记为X,于是:

https://img1.sycdn.imooc.com//5b4752980001736704860046.jpg

当我们挑选样本x(k)(第k个刺激并不等于第k个样本,同一个样本可能反复成为刺激)刺激神经元时,有:

https://img1.sycdn.imooc.com//5b4752a300013ca105540063.jpg

https://img1.sycdn.imooc.com//5b4752aa0001380d05540021.jpg

https://img1.sycdn.imooc.com//5b4752b20001f34605540063.jpg

为了让上式更为简洁,我们将x(k)和wk增加一维:


https://img1.sycdn.imooc.com//5b4752bd0001fda605540063.jpg

此时:

https://img1.sycdn.imooc.com//5b4752c50001952201380020.jpg

神经元对刺激x^(k)的输出为:

https://img1.sycdn.imooc.com//5b4752cc0001333003440038.jpg


https://img1.sycdn.imooc.com//5b4752d4000189b605540354.jpg

到这里,我们完成了对Rosenblattt感知器的推导,其伪代码为:

https://img1.sycdn.imooc.com//5b4752dd0001716105540333.jpg


老虎会防御——谜一样的感知器收敛原理

Rosenblatt感知器对于线性可分的两类问题总是有效的,但采用的方式与高斯分类器、逻辑回归、决策树还有SVM截然不同。那么能否保证它对所有线性可分的两类问题都能收敛?下面将利用夹逼定理对收敛性进行证明。

下界

https://img1.sycdn.imooc.com//5b4752e5000129d105540479.jpg

上界

https://img1.sycdn.imooc.com//5b4752ed0001965005540604.jpg

不等式左边是一个开口向上的一元二次方程,因此必存在,使等式不成立,因此该方法收敛。


老虎怂了——初始权重向量和学习率的影响

https://img1.sycdn.imooc.com//5b4752f60001476e05540499.jpg

https://img1.sycdn.imooc.com//5b4752fd00012e6b05540187.jpg


老虎搬救兵——感知器背后的随机梯度下降法

如果学习过随机梯度下降法的话,我们就会发现Rosenblatt感知器与随机梯度下降法间的相似度。

https://img1.sycdn.imooc.com//5b475342000166ce02150045.jpg

如果我们对Rosenblatt感知器构造损失函数

https://img1.sycdn.imooc.com//5b47533a0001761103680083.jpg

https://img1.sycdn.imooc.com//5b4753320001205a03970021.jpg

https://img1.sycdn.imooc.com//5b4753280001cede05240055.jpg

因此,Rosenblatt感知器的迭代过程实际上是随机梯度下降法的一个简化。由于随机梯度下降法依期望收敛,Rosenblatt感知器也是收敛的。


老虎被参观——Rosenblatt感知器的可视化过程

https://img1.sycdn.imooc.com//5b47531e00011a3b05540063.jpg

因此,Rosenblatt感知器可理解为:1)将特征增加一维,新的一维为1,对应神经元中的偏置;2)增维后的特征与样本类别相乘,得到校正后的特征向量;3)寻找一个权重向量,其与所有校正后的特征向量的夹角小于90度。以一维空间的样本为例,

https://img1.sycdn.imooc.com//5b4753170001c83f04420362.jpg

图2 对特征空间进行升维和标签校正

https://img1.sycdn.imooc.com//5b47531000010c8a06330316.jpg

图3 权重向量的更新过程

当权重向量与特征向量夹角大于90度时,调整权重向量,减少两者夹角。最终使其对所有的特征向量夹角都小于90度,实现对样本的正确分类。

打虎心得——最后的总结

最开始学Rosenblatt感知器时,只是想把收敛原理搞清楚,但搞懂之后,有两点是之前没有预料到的:1)它隐含一个损失函数,而这个损失函数不需要像逻辑回归一样由一个logit函数进行转换;2)之前对线性可分停留在可以找到一个超平面,左边一类,右边一类。但对于超平面与样本之间有何联连并不清楚,现在明白两者对应m+1维空间两个夹角小于90度的超平面。

好了,打虎到此结束,有缘再会。


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 1
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消