NextChat

GitHub
87.6k 59.9k 简单 7 次阅读 今天MIT开发框架语言模型
AI 解读 由 AI 自动生成,仅供参考

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。

这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。

NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。凭借开源免费的特性与灵活的安装方式,NextChat 正成为连接用户与前沿 AI 技术的理想桥梁。

使用场景

某跨国科技公司的远程研发团队需要频繁切换使用 Claude 进行代码审查、DeepSeek 处理中文文档以及 GPT-4 解决复杂算法问题,但成员分散在不同操作系统环境中。

没有 NextChat 时

  • 多平台体验割裂:Windows、MacOS 和 Linux 用户不得不分别寻找不同的客户端或依赖网页版,导致操作习惯不统一,协作效率低下。
  • 模型切换繁琐:开发者需要在多个官方网页之间反复跳转登录,手动复制粘贴上下文,无法在一个界面内灵活对比不同模型的输出结果。
  • 数据隐私担忧:直接使用公共网页版时,敏感代码片段和业务逻辑存在泄露风险,且缺乏企业级的对话审计与权限管控机制。
  • 部署维护成本高:团队若想私有化部署以保障安全,往往面临复杂的配置流程,难以快速搭建符合公司 VI/UI 品牌的专属助手。

使用 NextChat 后

  • 全端一致体验:团队成员无论使用 iOS、Android 还是桌面系统,都能通过 NextChat 获得轻量、快速且界面统一的操作体验,无缝衔接工作流。
  • 一站式模型聚合:在 NextChat 单一界面中即可自由切换 Claude、DeepSeek、GPT-4 等主流模型,支持 MCP 协议,轻松实现多模型协同解题。
  • 企业级安全可控:利用 NextChat 企业版功能,管理员可统一配置 API 资源,设置细粒度权限,并自动拦截敏感询问,确保核心代码不外泄。
  • 快速私有化定制:团队可通过 Vercel 或 Docker 一键部署私有实例,自定义品牌标识与知识库,将通用 AI 转化为懂业务的内部专家。

NextChat 通过全平台覆盖与企业级定制能力,将分散的 AI 工具整合为安全、高效且统一的团队智能基础设施。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

未说明

内存

未说明

依赖
notes该工具主要为前端应用(支持 Vercel 一键部署、PWA 及 Tauri 桌面客户端),本身不运行大模型,而是通过 API 连接外部服务(如 OpenAI, Claude, LocalAI 等)。若搭配本地模型服务(如 LocalAI/RWKV-Runner)使用,资源需求取决于后端模型服务而非本工具。客户端体积约 5MB,数据存储在浏览器本地。
python未说明
Next.js
Tauri (桌面端)
PWA
NextChat hero image

快速开始

icon

NextChat

英语 / 简体中文

ChatGPTNextWeb%2FChatGPT-Next-Web | Trendshift

✨ 轻量快速的AI助手,支持Claude、DeepSeek、GPT4和Gemini Pro。

Saas Web Windows MacOS Linux

NextChatAI / iOS APP / Web App Demo / Desktop App / Enterprise Edition

在Zeabur上部署 在Vercel上部署 在Gitpod中打开

❤️ 赞助AI API

icon

302.AI 是一个按需付费的AI应用平台,提供目前最全面的AI API和在线应用。

🥳 在线为NextChat iOS版本加油!

👉 点击此处立即安装

❤️ 源代码即将发布

Github iOS图片

🫣 NextChat支持MCP!

构建前,请设置环境变量ENABLE_MCP=true

企业版

满足贵公司私有化与定制化部署需求:

  • 品牌定制:量身打造VI/UI,无缝契合贵公司品牌形象。
  • 资源整合:由公司管理员统一配置与管理数十种AI资源,供团队成员随时使用。
  • 权限控制:明确划分成员权限、资源权限及知识库权限,全部通过企业级管理后台进行管控。
  • 知识整合:将内部知识库与AI能力相结合,使其更贴合贵公司特定业务需求,优于通用AI。
  • 安全审计:自动拦截敏感提问,并追溯所有历史对话记录,确保AI符合企业信息安全标准。
  • 私有部署:支持多种主流私有云解决方案的企业级私有部署,保障数据安全与隐私保护。
  • 持续更新:不断更新升级多模态AI等前沿能力,确保持续创新与发展。

如需企业咨询,请联系:business@nextchat.dev

截图

设置

更多

功能

  • 在Vercel上一键免费部署,不到1分钟即可完成
  • Linux/Windows/MacOS上的精简客户端(约5MB),立即下载
  • 完全兼容自部署LLM,推荐与RWKV-RunnerLocalAI一起使用
  • 隐私优先,所有数据均存储在浏览器本地
  • 支持Markdown:LaTex、mermaid、代码高亮等
  • 响应式设计、暗黑模式和PWA
  • 首屏加载速度快(约100KB),支持流式响应
  • v2新增功能:可通过提示模板(mask)创建、分享和调试聊天工具
  • 强大的提示词库,由awesome-chatgpt-prompts-zhawesome-chatgpt-prompts提供支持
  • 自动压缩聊天记录,支持长时间对话,同时节省您的token
  • 多语言支持:英语、简体中文、繁体中文、日语、法语、西班牙语、意大利语、土耳其语、德语、越南语、俄语、捷克语、韩语、印尼语

主界面

路线图

  • 系统提示:可将用户自定义提示固定为系统提示 #138
  • 用户提示:用户可编辑并保存自定义提示至提示列表
  • 提示模板:使用预定义的上下文提示创建新聊天 #993
  • 可以图片形式分享,也可分享至ShareGPT #1741
  • 使用tauri开发的桌面应用
  • 自托管模型:完全兼容RWKV-Runner,以及LocalAI的服务器部署:llama/gpt4all/rwkv/vicuna/koala/gpt4all-j/cerebras/falcon/dolly等
  • 产物:可通过单独窗口轻松预览、复制和分享生成的内容/网页 #5092
  • 插件:支持网络搜索、计算器、其他API等 #165 #5353
    • 网络搜索、计算器、其他API等 #165 #5353
  • 支持实时聊天 #5672
  • 本地知识库

新功能

  • 🚀 v2.15.8 现已支持实时聊天 #5672
  • 🚀 v2.15.4 应用程序支持使用 Tauri fetch 调用 LLM API,更加安全!#5379
  • 🚀 v2.15.0 现已支持插件!请阅读:NextChat-Awesome-Plugins
  • 🚀 v2.14.0 现已支持 Artifacts 和 SD
  • 🚀 v2.10.1 支持 Google Gemini Pro 模型。
  • 🚀 v2.9.11 现在可以使用 Azure 的 API 端点。
  • 🚀 v2.8 现在我们有一个跨平台运行的客户端!
  • 🚀 v2.7 可以将对话分享为图片,或分享到 ShareGPT!
  • 🚀 v2.0 已发布,现在你可以创建提示模板,把你的想法变成现实!请阅读:ChatGPT 提示工程技巧:零样本、单样本和少样本提示

开始使用

  1. 获取 OpenAI API 密钥
  2. 点击 使用 Vercel 部署,请记住 CODE 是你的页面密码;
  3. 享受吧 :)

常见问题解答

英文 > FAQ

保持更新

如果你按照上述步骤一键部署了自己的项目,可能会遇到“有更新可用”一直显示的问题。这是因为 Vercel 默认会为你创建一个新的项目,而不是对本项目进行分叉,从而导致无法正确检测到更新。

我们建议你按照以下步骤重新部署:

  • 删除原来的仓库;
  • 使用页面右上角的“Fork”按钮来分叉本项目;
  • 再次在 Vercel 中选择并部署,请参阅详细教程

启用自动更新

如果你遇到 Upstream Sync 执行失败的情况,请手动更新代码

分叉项目后,由于 GitHub 的限制,你需要在分叉项目的 Actions 页面手动启用 Workflows 和 Upstream Sync Action。一旦启用,自动更新将每小时调度一次:

自动更新

启用自动更新

手动更新代码

如果你想立即更新,可以查看 GitHub 文档了解如何将分叉的项目与上游代码同步。

你可以给该项目加星标或关注作者,以便及时获取发布通知。

访问密码

该项目提供了有限的访问控制。请在 Vercel 的环境变量页面添加一个名为 CODE 的环境变量。其值应为用逗号分隔的密码,如下所示:

code1,code2,code3

添加或修改此环境变量后,请重新部署项目以使更改生效。

环境变量

CODE(可选)

访问密码,用逗号分隔。

OPENAI_API_KEY(必填)

你的 OpenAI API 密钥,多个密钥之间用逗号连接。

BASE_URL(可选)

默认值:https://api.openai.com

示例:http://your-openai-proxy.com

覆盖 OpenAI API 请求的基础 URL。

OPENAI_ORG_ID(可选)

指定 OpenAI 组织 ID。

AZURE_URL(可选)

示例:https://{azure-resource-url}/openai

Azure 部署的 URL。

AZURE_API_KEY(可选)

Azure API 密钥。

AZURE_API_VERSION(可选)

Azure API 版本,可在 Azure 文档中找到。

GOOGLE_API_KEY(可选)

Google Gemini Pro 的 API 密钥。

GOOGLE_URL(可选)

Google Gemini Pro 的 API URL。

ANTHROPIC_API_KEY(可选)

Anthropic Claude 的 API 密钥。

ANTHROPIC_API_VERSION(可选)

Anthropic Claude 的 API 版本。

ANTHROPIC_URL(可选)

Anthropic Claude 的 API URL。

BAIDU_API_KEY(可选)

百度的 API 密钥。

BAIDU_SECRET_KEY(可选)

百度的 Secret Key。

BAIDU_URL(可选)

百度的 API URL。

BYTEDANCE_API_KEY(可选)

字节跳动的 API 密钥。

BYTEDANCE_URL(可选)

字节跳动的 API URL。

ALIBABA_API_KEY(可选)

阿里云的 API 密钥。

ALIBABA_URL(可选)

阿里云的 API URL。

IFLYTEK_URL(可选)

科大讯飞的 API URL。

IFLYTEK_API_KEY(可选)

科大讯飞的 API 密钥。

IFLYTEK_API_SECRET(可选)

科大讯飞的 API Secret。

CHATGLM_API_KEY(可选)

ChatGLM 的 API 密钥。

CHATGLM_URL(可选)

ChatGLM 的 API URL。

DEEPSEEK_API_KEY(可选)

DeepSeek 的 API 密钥。

DEEPSEEK_URL(可选)

DeepSeek 的 API URL。

HIDE_USER_API_KEY(可选)

默认值:空

如果你不希望用户输入自己的 API 密钥,可以将此值设置为 1。

DISABLE_GPT4(可选)

默认值:空

如果你不希望用户使用 GPT-4,可以将此值设置为 1。

ENABLE_BALANCE_QUERY(可选)

默认值:空

如果你希望用户查询余额,可以将此值设置为 1。

DISABLE_FAST_LINK(可选)

默认值:空

如果你希望禁用从 URL 解析设置的功能,可以将其设置为 1。

CUSTOM_MODELS(可选)

默认值:空 例如:+llama,+claude-2,-gpt-3.5-turbo,gpt-4-1106-preview=gpt-4-turbo 表示将 llamaclaude-2 添加到模型列表中,并从列表中移除 gpt-3.5-turbo,同时将 gpt-4-1106-preview 显示为 gpt-4-turbo

要控制自定义模型,使用 + 添加自定义模型,使用 - 隐藏模型,使用 name=displayName 自定义模型名称,各部分之间用逗号分隔。

使用 -all 可以禁用所有默认模型,使用 +all 则启用所有默认模型。

对于 Azure:使用 modelName@Azure=deploymentName 来自定义模型名称和部署名称。

例如:+gpt-3.5-turbo@Azure=gpt35 会在模型列表中显示选项 gpt35(Azure)。 如果你只能使用 Azure 模型,那么 -all,+gpt-3.5-turbo@Azure=gpt35 将使 gpt35(Azure) 成为模型列表中唯一的选项。

对于 ByteDance:使用 modelName@bytedance=deploymentName 来自定义模型名称和部署名称。

例如:+Doubao-lite-4k@bytedance=ep-xxxxx-xxx 会在模型列表中显示选项 Doubao-lite-4k(ByteDance)

DEFAULT_MODEL(可选)

更改默认模型。

VISION_MODELS(可选)

默认值:空 例如:gpt-4-vision,claude-3-opus,my-custom-model 表示除了默认的模式匹配之外(即检测包含“vision”、“claude-3”、“gemini-1.5”等关键词的模型),还为这些模型添加视觉能力。

在默认的模式匹配之外,添加额外的具有视觉能力的模型。多个模型之间用逗号分隔。

WHITE_WEBDAV_ENDPOINTS(可选)

如果您希望增加允许访问的 WebDAV 服务地址数量,可以使用此选项,格式要求如下:

  • 每个地址必须是完整的端点

    https://xxxx/yyy

  • 多个地址之间用 , 连接

DEFAULT_INPUT_TEMPLATE(可选)

自定义用于在设置中初始化“用户输入预处理”配置项的默认模板。

STABILITY_API_KEY(可选)

Stability API 密钥。

STABILITY_URL(可选)

自定义 Stability API 的 URL。

ENABLE_MCP(可选)

启用 MCP(模型上下文协议)功能。

SILICONFLOW_API_KEY(可选)

SiliconFlow API 密钥。

SILICONFLOW_URL(可选)

SiliconFlow API 的 URL。

AI302_API_KEY(可选)

302.AI API 密钥。

AI302_URL(可选)

302.AI API 的 URL。

系统要求

NodeJS >= 18, Docker >= 20

开发

在 Gitpod 中打开

在开始开发之前,您必须在项目根目录下创建一个新的 .env.local 文件,并将您的 API 密钥放入其中:

OPENAI_API_KEY=<您的 API 密钥在此处>

# 如果无法访问 OpenAI 服务,请使用此 BASE_URL
BASE_URL=https://chatgpt1.nextweb.fun/api/proxy

本地开发

# 1. 首先安装 Node.js 和 Yarn
# 2. 在 `.env.local` 中配置本地环境变量
# 3. 运行
yarn install
yarn dev

部署

Docker(推荐)

docker pull yidadaa/chatgpt-next-web

docker run -d -p 3000:3000 \
   -e OPENAI_API_KEY=sk-xxxx \
   -e CODE=您的密码 \
   yidadaa/chatgpt-next-web

您也可以通过代理启动服务:

docker run -d -p 3000:3000 \
   -e OPENAI_API_KEY=sk-xxxx \
   -e CODE=您的密码 \
   -e PROXY_URL=http://localhost:7890 \
   yidadaa/chatgpt-next-web

如果您的代理需要密码,请使用以下命令:

-e PROXY_URL="http://127.0.0.1:7890 用户名 密码"

如果启用 MCP,请使用:

docker run -d -p 3000:3000 \
   -e OPENAI_API_KEY=sk-xxxx \
   -e CODE=您的密码 \
   -e ENABLE_MCP=true \
   yidadaa/chatgpt-next-web

Shell 脚本

bash <(curl -s https://raw.githubusercontent.com/Yidadaa/ChatGPT-Next-Web/main/scripts/setup.sh)

同步聊天记录(UpStash)

| 简体中文 | English | Italiano | 日本語 | 한국어

文档

更多文档说明请前往 [docs][./docs] 目录。

翻译

如果您想添加新的翻译,请阅读此文档

捐赠

给我买杯咖啡

特别致谢

贡献者

许可证

MIT

版本历史

v2.14.12024/08/06
v2.11.32024/03/13
v2.16.12025/07/29
v2.16.02025/02/16
v2.15.82024/11/11
v2.15.72024/11/05
v2.15.62024/10/24
v2.14.22024/08/16
v2.15.52024/10/15
v2.15.42024/10/09
v2.15.32024/09/25
v2.15.22024/09/13
v2.15.12024/09/07
v2.15.02024/09/06
v2.14.02024/07/26
v2.13.12024/07/19
v2.13.02024/07/13
v2.12.42024/06/24
v2.12.32024/05/14
v2.12.22024/04/30

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|昨天
Agent图像开发框架

PaddleOCR

PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。

74.9k|★★★☆☆|今天
语言模型图像开发框架