为了账号安全,请及时绑定邮箱和手机立即绑定

Llama3 来了!– 要点

你需要了解关于最新最前沿的开放基础模型的哪些信息

所以今年最期待的模型终于出来了,来自Meta的AI团队的#llama3,等它值不值得呢?

关键要点

Meta发布了Meta Llama 3,这是他们开源大型语言模型系列中的最新成员,包括80亿和70亿参数的模型。

  • 新的分词器:Llama 3 使用了一个词汇量为 128K 的分词器,效率更高,与 Llama 2 相比,可以减少多达 15% 的分词。
  • 分组查询注意力:在所有模型中实施,使得较小的模型比 Llama 2 更有能力,后者仅在其最大的模型中使用。
  • 预训练使用了 15 万亿个分词,其中 95% 是英文。
  • 同时在 16K GPU 上训练,开发了新的工具来管理 GPU 利用率。希望他们能发布,因为 GPU 利用率是我见过的微调中最大的挑战。
  • Llama 2 的有趣用法:在数据质量领域中,它展示了 LLM 的有趣应用场景。
  • 新的微调方法:在指令集中结合推理跟踪和偏好排序,目的是减少模型幻觉和错误率。
  • 新库:TorchTune,一个用于 LLM 的 PyTorch 原生库,用于编写、微调和实验,提供了内存高效且可编程的训练配方。
  • 责任:Meta 强调负责任的人工智能开发,提供了诸如 Llama Guard 2 和 Code Shield 之类的信任和安全工具。
  • 性能:Llama 3 在性能上设立了新标准,拥有改进的推理能力,并在行业基准测试中取得了优异的成绩。我看到的详细基准测试是与 Claude 而不是 GPT4 的比较。

虽然它没有与GPT4进行详细的比较,也没有链接到研究论文,但它暗示将会有更多东西即将推出,可能是4000亿参数的模型。这款4000亿参数模型的早期测试结果可能成为生成式AI领域的下一个重大突破。

最酷的是,#llama 实际上是开放的,并可以在如 #huggingface#watsonx 这样的开放平台上使用。

点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号

举报

0/150
提交
取消