为了账号安全,请及时绑定邮箱和手机立即绑定

TF模型部署的特点

标签:
人工智能

TF模型部署的特点

  • 可扩展性、稳定性、可靠性(能经历大规模多应用部署的考验)好
  • 可扩展性、稳定性、可靠性(能经历大规模多应用部署的考验)好
  • TF serving高性能,开源的机器学习服务系统,专为部署设计的
    1. TF serving可以结合docker一起使用,部署方便
    2. 提供了REST和GRPC的接口
    3. 支持regression,classify,predict 的api
    4. serving的轻量化可以很好的解决服务问题
  • TF采用分布式的架构,对云的处理适应能力好,适合大规模项目的部署
  • TF有Js的版本,支持的浏览器端训练推理
  • Tensorboard的可视化工具便于查看数据
  • 各个平台上都能跑,win、Linux、MacOS、Android、iOS都能方便的使用
  • 可以用python接口,也有高性能的C++接口
  • 支持离线多机多cpu、gpu的分布式训练,还有在线提供serving的一整套解决方案,快速落地项目,极大减少工程成本

file

点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消