- DockerHub:
justma/chatgpt-next-chat:latest
- GitHub:
ghcr.io/qabot-zh/chatgpt-next-chat:latest
- 模型选择器优化
- 可配置的模型描述,支持模型搜索
- 可配置的模型标签,快速分类筛选
- @ 触发模型搜索和更改,沉浸式键盘输入体验
- 快速搜索聊天记录
- 高效查找历史对话
- 纯文本文件上传
- 自定义侧边栏
- 支持 HTML 样式定制
- 侧边栏消息置顶
- 直观保留重要对话历史
- 悬浮球信息栏
- 直观查看请求负载并支持快速编辑
- 功能入口:设置 → 个性化设置 → 启用悬浮球
- 自定义 css
- 无限创意,自定义主题体验
- 功能入口:设置 → 个性化设置 → 自定义 CSS
- 参数注入
- 支持通过前端的
参数覆盖
项来设置/覆盖请求参数,灵活适配 api 的个性化功能(对当前设备的整个对话生效) - 支持通过环境变量按
模型名称
注入请求参数,细粒度调整参数(优先级最高,全局生效)- 通用格式:"modelA:key1=val1;key2=val2,modelB:key3=val3",英文逗号分隔模型,分号分隔参数
- 支持精确匹配与通配符匹配(如
gpt-*
,*-4
,pre*suf
,*
表示所有模型)
- 支持通过前端的
- 云备份功能 - 免导入导出的数据同步(需配合文件服务器项目使用)
- 基于 AI 模型的中英互译
- 基于 AI 模型的 OCR 功能
- 基于 AI 模型的 提示词增强功能
- 输入区文本增强功能
- 提示词智能优化
- 输入文本一键清空
- 输入区文本批量替换
- 基于正则匹配的隐私打码(注:所有基于 AI 模型的功能的信息安全请自行把握)
- 支持 details/summary 标签渲染 - 增强页面整洁度与交互性
- 思考过程可视化 - 适配
<think>
标签和 reasoning_content 参数
- 回复 token 统计 - API 若未包含相关用量则以 gpt-3.5-turbo 为模型编码器计算
- 快速输入规则
- 支持将artifacts、聊天对话上传至 cf kv 空间生成分享页面,其中聊天对话保持交互属性
- OpenAI 类型支持前端配置 - 一键拉取可用模型 (已停更,建议使用更加完备的【自定义 AI 提供商】功能)
- 自定义 AI 提供商 - 支持 OpenAI/DeepSeek/SiliconFlow 类型
- 单渠道配置多密钥
- 密钥列表视图,密钥测试,余额查询
- 渠道级总余额查询
- 移除测试无效 key
- 拉取模型、模型测试
- 配置模型别名和视觉支持
- 支持配置聊天补全等路径
- 数据集成进 store,支持云备份
环境变量名称 | 描述 | 默认值 |
---|---|---|
CODE |
授权码,支持英文逗号分隔多个 code | - |
OPENAI_API_KEY |
必选. OpenAI API 密钥,支持英文逗号分隔多个 key | - |
BASE_URL |
自定义 OpenAI API 请求的基础 URL | https://api.openai.com |
OPENAI_ORG_ID |
指定 OpenAI 组织 ID | - |
HIDE_USER_API_KEY |
设置为 1 禁止用户在前端输入自己的 API 密钥 |
- |
DISABLE_GPT4 |
设置为 1 禁止用户使用 GPT-4 及其相关高级模型 |
- |
ENABLE_BALANCE_QUERY |
设置为 1 允许用户查询 API 余额 |
- |
DISABLE_FAST_LINK |
设置为 1 禁止通过 URL 解析参数 |
- |
环境变量名称 | 描述 | 默认值 |
---|---|---|
CUSTOM_MODELS |
自定义模型列表 | - |
SIDEBAR_TITLE |
设置侧边栏标题 | - |
SIDEBAR_SUBTITLE |
设置侧边栏子标题,支持 HTML 解析 | - |
SITE_TITLE |
设置网站顶部标题 | - |
COMPRESS_MODEL |
设置标题生成和历史压缩模型 | - |
TEXT_PROCESS_MODEL |
设置文本任务模型 | - |
OCR_MODEL |
设置 OCR 模型 | - |
CUSTOM_HELLO |
自定义招呼语,覆盖默认的 bot_hello |
- |
UNAUTHORIZED_INFO |
自定义错误提示,覆盖默认的提示词 | - |
WHITE_WEBDEV_ENDPOINTS |
增加允许访问的 WebDAV 服务地址 | - |
DEFAULT_INPUT_TEMPLATE |
自定义默认模板,用于初始化设置中的用户输入预处理配置项 | - |
VISION_MODELS |
设置具备视觉能力的模型,多个模型用英文逗号分隔 | - |
ICON_POSITION |
设置消息功能图标的位置,候选项:UP,DOWN,BOTH | DOWN |
SELECT_LABELS |
设置模型选择的标签,多个标签用英文逗号分隔 | - |
MODEL_PARAMS |
指定模型注入参数,英文逗号分隔模型,分号分隔参数,支持* 模式匹配,格式:"modelA:key1=val1;key2=val2,modelB:key3=val3",如:deepseek-reasoner:max_tokens=40000,gemini-2.5-flash:max_tokens=60000;temperature=0.3 |
- |
环境变量名称 | 描述 | 默认值 |
---|---|---|
CLOUDFLARE_ACCOUNT_ID | cloudflare 账户 ID | - |
CLOUDFLARE_KV_NAMESPACE_ID | kv 空间 ID | - |
CLOUDFLARE_KV_API_KEY | cloudflare 令牌(需要有kv操作权限) | - |
CLOUDFLARE_KV_TTL | kv 数据保存时间 (单位:秒) | - |
<br>
<div style="line-height: 1.8;">
<div>AI-Chat 演示站</div>
<div>测试侧边栏文字 HTML 解析</div>
<a href="https://github.com/QAbot-zh/ChatGPT-Next-Web"
style="color: #1890ff;
text-decoration: none;
font-weight: 500;
transition: all 0.3s ease;
padding: 2px 4px;
border-radius: 4px;
background-color: rgba(24,144,255,0.1);">
<span style="margin-bottom: 8px;">📦</span>Github项目
</a>
</div>
-
serv00 部署 感谢 Reno 奉献的教程: 零成本搭建可扩展的AI对话平台,含文件服务搭建
-
claw 部署:docker 容器化部署,操作快捷
- 定制快捷输入规则
- 图片、视频生成等模态支持
- 支持更多模型提供商
- 混合渠道的模型负载均衡
- 插件支持
- MCP支持
- 模型竞技与模型组合
参考过创意或实现的其他项目(排名不分先后):
- User