Docker 部署 Lobe Chat 服务

发布时间:2023年12月19日

拉取最新版本的 Lobe Chat 镜像:

$ sudo docker pull lobehub/lobe-chat:latest

使用以下命令来运行 Lobe Chat 容器:

$ sudo docker run -d --name lobe-chat -p 10084:3210 -e OPENAI_API_KEY=sk-xxxx -e OPENAI_PROXY_URL=https://api.openai.com/v1 -e ACCESS_CODE=lobe66 lobehub/lobe-chat:latest
  • -d (后台运行容器)
  • --name (给容器起一个名字方便管理)
  • -p 10084:3210 (将容器的3210端口映射到主机的10084端口, 同时指定TCP协议)
  • -e OPENAI_API_KEY=sk-xxxx (OpenAI API Key)
  • -e OPENAI_PROXY_URL=https://api.openai.com/v1 (OpenAI 接口代理, 默认为官方接口)
  • -e ACCESS_CODE=lobe66 (访问 LobeChat 服务的密码)

通过 sudo docker ps 命令查看容器的运行信息:

$ sudo docker ps
CONTAINER ID   IMAGE                           COMMAND                  CREATED         STATUS                 PORTS                                               NAMES
ee929a37e34e   lobehub/lobe-chat:latest        "docker-entrypoint.s…"   9 minutes ago   Up 9 minutes           0.0.0.0:10084->3210/tcp, :::10084->3210/tcp         lobe-chat

现在可以通过 IP 或配置好的域名访问搭建好的 Lobe Chat 服务:

在这里插入图片描述

需要注意的是, 在使用之前需要配置好前面设置的访问 Lobe Chat 服务的密码:

在这里插入图片描述

同时, 使用时, 按需要选择合适的模型:

在这里插入图片描述

可以参考以下内容选择合适的模型:

  1. 如何根据自己的需求选择合适的模型?
用途推荐模型
日常对话、翻译插件、YouTube总结/搜索总结插件等场景gpt-3.5-turbo
需要较高的推理能力, 如写代码、协助写论文等场景gpt-4
需要模型接收图片并回答与之相关的问题gpt-4-vision
  1. 4K、8K、16K、32K是什么意思?

这是 token 长度的缩写, 4K 表示 4096 个 token, 以此类推。其中, 1 个汉字约为 2 个 token, 因此 4K 的接口约能处理 2000 个汉字, 以此类推。

  1. gpt-4-32k 是否比 gpt-4 更聪明?

不是, 这 2 个模型是一样的, 都是 gpt-4,只是支持的 token 长度不一样。

文章来源:https://blog.csdn.net/hekaiyou/article/details/135031347
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。