为了账号安全,请及时绑定邮箱和手机立即绑定

爬虫url去重——Berkeley DB 性能测试

标签:
Python

2017年3月7日更新
berkley db 还是不适合应用在生产环境中。今天我ctrl+c强制关程序,berkley db 一直报错:

(-30973, 'BDB0087 DB_RUNRECOVERY: Fatal error, run database recovery -- BDB0060 PANIC: fatal region error detected; run recovery')

这太不健壮了,而且网上资料太少了。
决定放弃这个。。。


爬虫中需要用到大规模url去重,在网上搜索到Berkeley DB,发现非常适合。优点如下:

1、嵌入式数据库,插入和查询非常快,比redis要快(主要是没有网络开销)
2、python中使用非常简单方便

测试流程:

1、生成1000w数字,插入db
2、随机生成一个数字,进行查询
3、生成1000w数字,然后算出md5
4、随机生成一个数字的md5,进行查询

我的测试代码:
代码地址:

https://github.com/xsren/python_test_demo

#coding:utf8import bsddb3import timeimport randomimport hashlib

test_num = 10000000def md5(s):
    return hashlib.md5(s).hexdigest()def insert(db):
    t0 = time.time()    for i in xrange(test_num):
        db[str(i)] = None
    print time.time() - t0def insert_md5(db):
    t0 = time.time()    for i in xrange(test_num):
        db[md5(str(i))] = None
    print time.time() - t0def query(db):
    i = random.randint(0,test_num)
    t0 = time.time()    print db.has_key(str(i))    print time.time() - t0def query_md5(db):
    i = random.randint(0,test_num)
    t0 = time.time()    print db.has_key(md5(str(i)))    print time.time() - t0def main():
    db1 = bsddb3.hashopen('test1.db', 'c')    #插入1000w整数
    insert(db1)
    query(db1)    #插入1000w整数得到的md5
    db2 = bsddb3.hashopen('test2.db', 'c')
    insert_md5(db2)
    query_md5(db2)if __name__ == '__main__':
    main()

测试结果:

https://img1.sycdn.imooc.com//5d31b60e0001f5a407220523.jpg


文件大小.png

结论:

1、插入1000w数字只要112s
2、1000w的md5数据大小为640M
3、一次查询的时间为10us


作者:xsren
链接:https://www.jianshu.com/p/6d02c1ac8c2b

点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 1
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消