NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。
这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。
NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。凭借开源免费的特性与灵活的安装方式,NextChat 正成为连接用户与前沿 AI 技术的理想桥梁。
使用场景
某跨国科技公司的远程研发团队需要频繁切换使用 Claude 进行代码审查、DeepSeek 处理中文文档以及 GPT-4 解决复杂算法问题,但成员分散在不同操作系统环境中。
没有 NextChat 时
- 多平台体验割裂:Windows、MacOS 和 Linux 用户不得不分别寻找不同的客户端或依赖网页版,导致操作习惯不统一,协作效率低下。
- 模型切换繁琐:开发者需要在多个官方网页之间反复跳转登录,手动复制粘贴上下文,无法在一个界面内灵活对比不同模型的输出结果。
- 数据隐私担忧:直接使用公共网页版时,敏感代码片段和业务逻辑存在泄露风险,且缺乏企业级的对话审计与权限管控机制。
- 部署维护成本高:团队若想私有化部署以保障安全,往往面临复杂的配置流程,难以快速搭建符合公司 VI/UI 品牌的专属助手。
使用 NextChat 后
- 全端一致体验:团队成员无论使用 iOS、Android 还是桌面系统,都能通过 NextChat 获得轻量、快速且界面统一的操作体验,无缝衔接工作流。
- 一站式模型聚合:在 NextChat 单一界面中即可自由切换 Claude、DeepSeek、GPT-4 等主流模型,支持 MCP 协议,轻松实现多模型协同解题。
- 企业级安全可控:利用 NextChat 企业版功能,管理员可统一配置 API 资源,设置细粒度权限,并自动拦截敏感询问,确保核心代码不外泄。
- 快速私有化定制:团队可通过 Vercel 或 Docker 一键部署私有实例,自定义品牌标识与知识库,将通用 AI 转化为懂业务的内部专家。
NextChat 通过全平台覆盖与企业级定制能力,将分散的 AI 工具整合为安全、高效且统一的团队智能基础设施。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
NextChat
英语 / 简体中文
✨ 轻量快速的AI助手,支持Claude、DeepSeek、GPT4和Gemini Pro。
NextChatAI / iOS APP / Web App Demo / Desktop App / Enterprise Edition
❤️ 赞助AI API
302.AI 是一个按需付费的AI应用平台,提供目前最全面的AI API和在线应用。
🥳 在线为NextChat iOS版本加油!

🫣 NextChat支持MCP!
构建前,请设置环境变量ENABLE_MCP=true
企业版
满足贵公司私有化与定制化部署需求:
- 品牌定制:量身打造VI/UI,无缝契合贵公司品牌形象。
- 资源整合:由公司管理员统一配置与管理数十种AI资源,供团队成员随时使用。
- 权限控制:明确划分成员权限、资源权限及知识库权限,全部通过企业级管理后台进行管控。
- 知识整合:将内部知识库与AI能力相结合,使其更贴合贵公司特定业务需求,优于通用AI。
- 安全审计:自动拦截敏感提问,并追溯所有历史对话记录,确保AI符合企业信息安全标准。
- 私有部署:支持多种主流私有云解决方案的企业级私有部署,保障数据安全与隐私保护。
- 持续更新:不断更新升级多模态AI等前沿能力,确保持续创新与发展。
如需企业咨询,请联系:business@nextchat.dev
截图


功能
- 在Vercel上一键免费部署,不到1分钟即可完成
- Linux/Windows/MacOS上的精简客户端(约5MB),立即下载
- 完全兼容自部署LLM,推荐与RWKV-Runner或LocalAI一起使用
- 隐私优先,所有数据均存储在浏览器本地
- 支持Markdown:LaTex、mermaid、代码高亮等
- 响应式设计、暗黑模式和PWA
- 首屏加载速度快(约100KB),支持流式响应
- v2新增功能:可通过提示模板(mask)创建、分享和调试聊天工具
- 强大的提示词库,由awesome-chatgpt-prompts-zh和awesome-chatgpt-prompts提供支持
- 自动压缩聊天记录,支持长时间对话,同时节省您的token
- 多语言支持:英语、简体中文、繁体中文、日语、法语、西班牙语、意大利语、土耳其语、德语、越南语、俄语、捷克语、韩语、印尼语

路线图
- 系统提示:可将用户自定义提示固定为系统提示 #138
- 用户提示:用户可编辑并保存自定义提示至提示列表
- 提示模板:使用预定义的上下文提示创建新聊天 #993
- 可以图片形式分享,也可分享至ShareGPT #1741
- 使用tauri开发的桌面应用
- 自托管模型:完全兼容RWKV-Runner,以及LocalAI的服务器部署:llama/gpt4all/rwkv/vicuna/koala/gpt4all-j/cerebras/falcon/dolly等
- 产物:可通过单独窗口轻松预览、复制和分享生成的内容/网页 #5092
- 插件:支持网络搜索、计算器、其他API等 #165 #5353
- 支持实时聊天 #5672
- 本地知识库
新功能
- 🚀 v2.15.8 现已支持实时聊天 #5672
- 🚀 v2.15.4 应用程序支持使用 Tauri fetch 调用 LLM API,更加安全!#5379
- 🚀 v2.15.0 现已支持插件!请阅读:NextChat-Awesome-Plugins
- 🚀 v2.14.0 现已支持 Artifacts 和 SD
- 🚀 v2.10.1 支持 Google Gemini Pro 模型。
- 🚀 v2.9.11 现在可以使用 Azure 的 API 端点。
- 🚀 v2.8 现在我们有一个跨平台运行的客户端!
- 🚀 v2.7 可以将对话分享为图片,或分享到 ShareGPT!
- 🚀 v2.0 已发布,现在你可以创建提示模板,把你的想法变成现实!请阅读:ChatGPT 提示工程技巧:零样本、单样本和少样本提示。
开始使用
- 获取 OpenAI API 密钥;
- 点击
,请记住 CODE是你的页面密码; - 享受吧 :)
常见问题解答
保持更新
如果你按照上述步骤一键部署了自己的项目,可能会遇到“有更新可用”一直显示的问题。这是因为 Vercel 默认会为你创建一个新的项目,而不是对本项目进行分叉,从而导致无法正确检测到更新。
我们建议你按照以下步骤重新部署:
- 删除原来的仓库;
- 使用页面右上角的“Fork”按钮来分叉本项目;
- 再次在 Vercel 中选择并部署,请参阅详细教程。
启用自动更新
如果你遇到 Upstream Sync 执行失败的情况,请手动更新代码。
分叉项目后,由于 GitHub 的限制,你需要在分叉项目的 Actions 页面手动启用 Workflows 和 Upstream Sync Action。一旦启用,自动更新将每小时调度一次:


手动更新代码
如果你想立即更新,可以查看 GitHub 文档了解如何将分叉的项目与上游代码同步。
你可以给该项目加星标或关注作者,以便及时获取发布通知。
访问密码
该项目提供了有限的访问控制。请在 Vercel 的环境变量页面添加一个名为 CODE 的环境变量。其值应为用逗号分隔的密码,如下所示:
code1,code2,code3
添加或修改此环境变量后,请重新部署项目以使更改生效。
环境变量
CODE(可选)
访问密码,用逗号分隔。
OPENAI_API_KEY(必填)
你的 OpenAI API 密钥,多个密钥之间用逗号连接。
BASE_URL(可选)
默认值:
https://api.openai.com
示例:
http://your-openai-proxy.com
覆盖 OpenAI API 请求的基础 URL。
OPENAI_ORG_ID(可选)
指定 OpenAI 组织 ID。
AZURE_URL(可选)
示例:https://{azure-resource-url}/openai
Azure 部署的 URL。
AZURE_API_KEY(可选)
Azure API 密钥。
AZURE_API_VERSION(可选)
Azure API 版本,可在 Azure 文档中找到。
GOOGLE_API_KEY(可选)
Google Gemini Pro 的 API 密钥。
GOOGLE_URL(可选)
Google Gemini Pro 的 API URL。
ANTHROPIC_API_KEY(可选)
Anthropic Claude 的 API 密钥。
ANTHROPIC_API_VERSION(可选)
Anthropic Claude 的 API 版本。
ANTHROPIC_URL(可选)
Anthropic Claude 的 API URL。
BAIDU_API_KEY(可选)
百度的 API 密钥。
BAIDU_SECRET_KEY(可选)
百度的 Secret Key。
BAIDU_URL(可选)
百度的 API URL。
BYTEDANCE_API_KEY(可选)
字节跳动的 API 密钥。
BYTEDANCE_URL(可选)
字节跳动的 API URL。
ALIBABA_API_KEY(可选)
阿里云的 API 密钥。
ALIBABA_URL(可选)
阿里云的 API URL。
IFLYTEK_URL(可选)
科大讯飞的 API URL。
IFLYTEK_API_KEY(可选)
科大讯飞的 API 密钥。
IFLYTEK_API_SECRET(可选)
科大讯飞的 API Secret。
CHATGLM_API_KEY(可选)
ChatGLM 的 API 密钥。
CHATGLM_URL(可选)
ChatGLM 的 API URL。
DEEPSEEK_API_KEY(可选)
DeepSeek 的 API 密钥。
DEEPSEEK_URL(可选)
DeepSeek 的 API URL。
HIDE_USER_API_KEY(可选)
默认值:空
如果你不希望用户输入自己的 API 密钥,可以将此值设置为 1。
DISABLE_GPT4(可选)
默认值:空
如果你不希望用户使用 GPT-4,可以将此值设置为 1。
ENABLE_BALANCE_QUERY(可选)
默认值:空
如果你希望用户查询余额,可以将此值设置为 1。
DISABLE_FAST_LINK(可选)
默认值:空
如果你希望禁用从 URL 解析设置的功能,可以将其设置为 1。
CUSTOM_MODELS(可选)
默认值:空 例如:
+llama,+claude-2,-gpt-3.5-turbo,gpt-4-1106-preview=gpt-4-turbo表示将llama和claude-2添加到模型列表中,并从列表中移除gpt-3.5-turbo,同时将gpt-4-1106-preview显示为gpt-4-turbo。
要控制自定义模型,使用 + 添加自定义模型,使用 - 隐藏模型,使用 name=displayName 自定义模型名称,各部分之间用逗号分隔。
使用 -all 可以禁用所有默认模型,使用 +all 则启用所有默认模型。
对于 Azure:使用 modelName@Azure=deploymentName 来自定义模型名称和部署名称。
例如:
+gpt-3.5-turbo@Azure=gpt35会在模型列表中显示选项gpt35(Azure)。 如果你只能使用 Azure 模型,那么-all,+gpt-3.5-turbo@Azure=gpt35将使gpt35(Azure)成为模型列表中唯一的选项。
对于 ByteDance:使用 modelName@bytedance=deploymentName 来自定义模型名称和部署名称。
例如:
+Doubao-lite-4k@bytedance=ep-xxxxx-xxx会在模型列表中显示选项Doubao-lite-4k(ByteDance)。
DEFAULT_MODEL(可选)
更改默认模型。
VISION_MODELS(可选)
默认值:空 例如:
gpt-4-vision,claude-3-opus,my-custom-model表示除了默认的模式匹配之外(即检测包含“vision”、“claude-3”、“gemini-1.5”等关键词的模型),还为这些模型添加视觉能力。
在默认的模式匹配之外,添加额外的具有视觉能力的模型。多个模型之间用逗号分隔。
WHITE_WEBDAV_ENDPOINTS(可选)
如果您希望增加允许访问的 WebDAV 服务地址数量,可以使用此选项,格式要求如下:
- 每个地址必须是完整的端点
https://xxxx/yyy - 多个地址之间用
,连接
DEFAULT_INPUT_TEMPLATE(可选)
自定义用于在设置中初始化“用户输入预处理”配置项的默认模板。
STABILITY_API_KEY(可选)
Stability API 密钥。
STABILITY_URL(可选)
自定义 Stability API 的 URL。
ENABLE_MCP(可选)
启用 MCP(模型上下文协议)功能。
SILICONFLOW_API_KEY(可选)
SiliconFlow API 密钥。
SILICONFLOW_URL(可选)
SiliconFlow API 的 URL。
AI302_API_KEY(可选)
302.AI API 密钥。
AI302_URL(可选)
302.AI API 的 URL。
系统要求
NodeJS >= 18, Docker >= 20
开发
在开始开发之前,您必须在项目根目录下创建一个新的 .env.local 文件,并将您的 API 密钥放入其中:
OPENAI_API_KEY=<您的 API 密钥在此处>
# 如果无法访问 OpenAI 服务,请使用此 BASE_URL
BASE_URL=https://chatgpt1.nextweb.fun/api/proxy
本地开发
# 1. 首先安装 Node.js 和 Yarn
# 2. 在 `.env.local` 中配置本地环境变量
# 3. 运行
yarn install
yarn dev
部署
Docker(推荐)
docker pull yidadaa/chatgpt-next-web
docker run -d -p 3000:3000 \
-e OPENAI_API_KEY=sk-xxxx \
-e CODE=您的密码 \
yidadaa/chatgpt-next-web
您也可以通过代理启动服务:
docker run -d -p 3000:3000 \
-e OPENAI_API_KEY=sk-xxxx \
-e CODE=您的密码 \
-e PROXY_URL=http://localhost:7890 \
yidadaa/chatgpt-next-web
如果您的代理需要密码,请使用以下命令:
-e PROXY_URL="http://127.0.0.1:7890 用户名 密码"
如果启用 MCP,请使用:
docker run -d -p 3000:3000 \
-e OPENAI_API_KEY=sk-xxxx \
-e CODE=您的密码 \
-e ENABLE_MCP=true \
yidadaa/chatgpt-next-web
Shell 脚本
bash <(curl -s https://raw.githubusercontent.com/Yidadaa/ChatGPT-Next-Web/main/scripts/setup.sh)
同步聊天记录(UpStash)
| 简体中文 | English | Italiano | 日本語 | 한국어
文档
更多文档说明请前往 [docs][./docs] 目录。
翻译
如果您想添加新的翻译,请阅读此文档。
捐赠
特别致谢
贡献者
许可证
版本历史
v2.14.12024/08/06v2.11.32024/03/13v2.16.12025/07/29v2.16.02025/02/16v2.15.82024/11/11v2.15.72024/11/05v2.15.62024/10/24v2.14.22024/08/16v2.15.52024/10/15v2.15.42024/10/09v2.15.32024/09/25v2.15.22024/09/13v2.15.12024/09/07v2.15.02024/09/06v2.14.02024/07/26v2.13.12024/07/19v2.13.02024/07/13v2.12.42024/06/24v2.12.32024/05/14v2.12.22024/04/30常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。

