为了账号安全,请及时绑定邮箱和手机立即绑定

99%人不知道!5分钟突破FastGPT+BGE-M3本地大模型对接壁垒

标签:
人工智能

🚀接上篇我们深度解析了《FastGPT与DeepSeek-R1的本地模型对接之路》,今天我们分享私有化向量模型BGE-M3+ FastGPT无缝接入技巧!还是熟悉的配方,但这次我们将直捣技术核心!**

直捣黄龙BGE-M3模型注入

🔥浏览器输入:http://ip:3000
🔥左侧边栏最底部点击[账号]→[模型提供商],点击右上角[模型配置]选项卡。
图片

核弹级参数配置

🔥点击[新增模型]→选择[索引模型],核心参数三连击。
图片
⚠️在Docker多容器架构中,localhost指向的是当前容器的回环地址,而非宿主机!✅[自定义请求地址]正确姿势!

http://172.17.0.1:11434/v1/embeddings

🔥当FastGPT容器调用Ollama服务时,若配置为localhost:11434,FastGPT容器实际上在请求自身,必然引发Connection error💡
深入原理(参考上篇《从崩溃到成功:深度解析FastGPT与DeepSeek-R1的本地模型对接之路》)。**

终极链路验证

🔥开启Ollama上帝视角(新开终端执行命令,右键清屏)

docker logs -f ollama --tail 50

🔥双保险验证法,点击[模型测试]→ 出现绿色✅弹窗→ 日志捕获 POST "/v1/embeddings"|200✅
图片
关注【IT技术工坊】下篇剧透 FastGPT+Ollama+deepseek R1:全民AI助手落地实战教程。
图片

点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号

举报

0/150
提交
取消