https://www.bilibili.com/video/BV18i4y1a78u/?vd_source=4b290247452adda4e56d84b659b0c8a2
【大模型知识库】(4):本地环境运行dity+fastchat的ChatGLM3模型,可以使用chat/completions接口调用chatglm3模型
https://github.com/langgenius/dify/blob/main/README_CN.md
Dify 是一个 LLM 应用开发平台,已经有超过 10 万个应用基于 Dify.AI 构建。它融合了 Backend as Service 和 LLMOps 的理念,涵盖了构建生成式 AI 原生应用所需的核心技术栈,包括一个内置 RAG 引擎。使用 Dify,你可以基于任何模型自部署类似 Assistants API 和 GPTs 的能力。
发布gitee代码:
https://gitee.com/fly-llm/dify-docker-compose
然后就可以聊天了:
还可以快速的配置提示词,然后进行测试,测试完成直接发布即可:
dify 已经是非常完善的产品了,可以快速的进行配置开发一个聊天应用。
同时支持配置提示词。非常方便。还有知识库可以配置使用。