为了账号安全,请及时绑定邮箱和手机立即绑定

合成特征和离群值(接上篇的补充)

标签:
Python

合成特征和离群值

学习目标:

尝试合成特征

上一次我们只使用了单个特征,但这是不切实际的,往往我们需要多个特征,但此次并不是使用多个特征,而是创建一个合成特诊

total_rooms 和 population 特征都会统计指定街区的相关总计数据。
但是,如果一个街区比另一个街区的人口更密集,会怎么样?我们可以创建一个合成特征(即 total_rooms 与 population的比例)来探索街区人口密度与房屋价值中位数之间的关系。

# 创建合成特征 california_housing_dataframe["rooms_per_person"] =california_housing_dataframe["total_rooms"]/california_housing_dataframe["population"] calibration_data = train_model(     learning_rate=0.0005,     steps=500,     batch_size=1,     input_feature="rooms_per_person" )

结果:

Training model... 
RMSE (on training data):
period 00 : 237.29
period 01 : 237.04 
period 02 : 236.78 
period 03 : 236.53
period 04 : 236.28
period 05 : 236.03 
period 06 : 235.78 
period 07 : 235.53 
period 08 : 235.27
period 09 : 235.02 
Model training finished

效果很差,因为RMSE变化很小,我们可以尝试增大学习速率,*10 learning_rate=0.005

Training model... 
RMSE (on training data):
period 00 : 235.03
period 01 : 232.52
period 02 : 230.03
period 03 : 227.56
period 04 : 225.13
period 05 : 222.70
period 06 : 220.38
period 07 : 217.95
period 08 : 215.54
period 09 : 213.17 
Model training finished.

可以发现RMSE是在逐渐收敛的,学习速率没有过大,继续*10 learning_rate=0.05

Training model... 
RMSE (on training data):
period 00 : 212.86
period 01 : 190.91
period 02 : 172.64
period 03 : 155.99
period 04 : 149.72
period 05 : 141.27
period 06 : 136.94
period 07 : 134.30
period 08 : 131.94
period 09 : 130.69
Model training finished.

learing_rate=0.05.png
从RMSE的下降速率来看,说明已经接近最小值了,为其增大一点点,+0.005 learning_rate=0.055

Training model...
RMSE (on training data):
period 00 : 210.61
period 01 : 185.76
period 02 : 166.58
period 03 : 150.86
period 04 : 142.97
period 05 : 136.05
period 06 : 133.06
period 07 : 132.46
period 08 : 131.34
period 09 : 130.55
Model training finished.


predictionstargets
count17000.017000.0
mean170.9207.3
std77.4116.0
min41.115.0
25%140.6119.4
50%168.3180.4
75%191.9265.0
max3693.8500.0

Final RMSE (on training data): 130.55

learing_rate=0.055.png

可以发现结果变化很小,我们在这里就可以停止了,因为再次尝试下去,要浪费太多的计算量和时间

识别离群值

通过上图的预测值与目标值的散点图效果,可以发现,
如果是在理想情况下,这些值将位于一条完全相关的对角线上。
但是现在却是存在许多异常的散点,如果我们能够查找到这些异常点的原因并将其筛除掉,那么效果一定会更好更贴近真实情况

# 尺寸15*6 plt.figure(figsize=(15, 6)) # 1行2列,先画第一个格 plt.subplot(1, 2, 1) # x,y轴标签 plt.xlabel("predictioon") plt.ylabel("targets") # 绘制散点图 plt.scatter(calibration_data["predictions"], calibration_data["targets"]) # 第二个绘制直方图 plt.subplot(1, 2, 2) california_housing_dataframe["rooms_per_person"].hist()

结果:

scatter&hist_1.png

从散点图中可以看出,绝大部分的散点汇集在一条竖直的直线上(其实这也并不是一条直线,而是因为x轴的分辨率太大了,一格500),还有一些是散乱分布的
为什么大部分点会垂直排列,这个原因我们先不讲,这不是这次训练目的,我们的目的是要找出极少出的异常的点
再看直方图,大部分是在0-5这条线上,少数的应该就是异常值了,下面我们滤掉他们,并看下结果会怎样

california_housing_dataframe["rooms_per_person"] = (     california_housing_dataframe["rooms_per_person"]).apply(lambda x: min(x, 5)) _ = california_housing_dataframe["rooms_per_person"].hist()

结果:

hist.png

这次都在0-5之内了

再次训练

calibration_data = train_model(     learning_rate=0.055,     steps=500,     batch_size=5,     input_feature="rooms_per_person")

结果:
Training model...
RMSE (on training data):
period 00 : 210.41
period 01 : 184.47
period 02 : 160.39
period 03 : 140.40
period 04 : 124.11
period 05 : 117.53
period 06 : 110.61
period 07 : 108.84
period 08 : 108.26
period 09 : 108.65
Model training finished.


predictionstargets
count17000.017000.0
mean191.6207.3
std50.1116.0
min44.815.0
25%159.7119.4
50%191.7180.4
75%218.9265.0
max425.3500.0

Final RMSE (on training data): 108.65

train_2.png

这次的结果好过以前的每一次,体现在RMSE下降的速度特别快,说明少了很多干扰,其次便是RMSE这次是最小的,说明去除离群值后效果真的是好了很多

plt.scatter(calibration_data["predictions"], calibration_data["targets"])

结果:

scatter_real.png

现在可以看出散点分布其实是挺集中的。

以上,结束

原文链接:https://segmentfault.com/a/1190000013822850

点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消