拉取最新版本的 Lobe Chat 镜像:
$ sudo docker pull lobehub/lobe-chat:latest
使用以下命令来运行 Lobe Chat 容器:
$ sudo docker run -d --name lobe-chat -p 10084:3210 -e OPENAI_API_KEY=sk-xxxx -e OPENAI_PROXY_URL=https://api.openai.com/v1 -e ACCESS_CODE=lobe66 lobehub/lobe-chat:latest
-d
(后台运行容器)--name
(给容器起一个名字方便管理)-p 10084:3210
(将容器的3210端口映射到主机的10084端口, 同时指定TCP协议)-e OPENAI_API_KEY=sk-xxxx
(OpenAI API Key)-e OPENAI_PROXY_URL=https://api.openai.com/v1
(OpenAI 接口代理, 默认为官方接口)-e ACCESS_CODE=lobe66
(访问 LobeChat 服务的密码)通过 sudo docker ps
命令查看容器的运行信息:
$ sudo docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
ee929a37e34e lobehub/lobe-chat:latest "docker-entrypoint.s…" 9 minutes ago Up 9 minutes 0.0.0.0:10084->3210/tcp, :::10084->3210/tcp lobe-chat
现在可以通过 IP 或配置好的域名访问搭建好的 Lobe Chat 服务:
需要注意的是, 在使用之前需要配置好前面设置的访问 Lobe Chat 服务的密码:
同时, 使用时, 按需要选择合适的模型:
可以参考以下内容选择合适的模型:
用途 | 推荐模型 |
---|---|
日常对话、翻译插件、YouTube总结/搜索总结插件等场景 | gpt-3.5-turbo |
需要较高的推理能力, 如写代码、协助写论文等场景 | gpt-4 |
需要模型接收图片并回答与之相关的问题 | gpt-4-vision |
这是 token 长度的缩写, 4K 表示 4096 个 token, 以此类推。其中, 1 个汉字约为 2 个 token, 因此 4K 的接口约能处理 2000 个汉字, 以此类推。
不是, 这 2 个模型是一样的, 都是 gpt-4,只是支持的 token 长度不一样。