https://github.com/langgenius/dify/blob/main/README_CN.md
Dify 是一个 LLM 应用开发平台,已经有超过 10 万个应用基于 Dify.AI 构建。它融合了 Backend as Service 和 LLMOps 的理念,涵盖了构建生成式 AI 原生应用所需的核心技术栈,包括一个内置 RAG 引擎。使用 Dify,你可以基于任何模型自部署类似 Assistants API 和 GPTs 的能力。
项目部署脚本地址:
https://gitee.com/fly-llm/dify-docker-compose
使用 embedding 接口
特别注意,这次需要增加 /v1 路径了:
http://192.168.1.116:8000/v1
本地模型就多了两个接口可以使用了
然后就可以使用高质量索引了:
可以看到分成的文档段落:
然后就可以配合知识库使用了。
知识库使用起来也是非常的方便的,配置bge的embedding 接口。