Chinese-LLaMA-Alpaca
Chinese-LLaMA-Alpaca 是专为中文场景打造的开源大语言模型。它在原版 LLaMA 架构上扩充了中文词表,并通过大量中文数据重新训练,让模型更懂中文含义与语境。经过指令微调后,它能精准理解并执行用户的中文指令。
Chinese-LLaMA-Alpaca 解决了通用大模型中文能力不足、且难以在个人电脑本地运行的难题。开发者、研究人员及技术爱好者均可使用它来搭建中文对话系统、智能客服或探索自然语言处理技术。
其独特优势在于支持在普通笔记本的 CPU 或 GPU 上本地部署,无需昂贵服务器。项目兼容 Hugging Face、llama.cpp 等主流框架,提供从 7B 到 33B 多种模型规格,甚至包含最新的 Llama-3 版本。此外,用户还能获得训练脚本自行定制模型,真正让大模型技术在本地环境开放落地。
使用场景
某中型跨境电商运营团队计划搭建内部知识库助手,用于快速检索商品详情并生成多语言营销文案。
没有 Chinese-LLaMA-Alpaca 时
- 调用海外大模型 API 时,中文语义理解偏差大,常出现“机翻味”严重的回复
- 敏感商品信息需上传至云端,企业担心核心数据泄露给第三方服务商
- 按次付费模式导致高频查询成本失控,且网络波动影响响应速度
- 通用模型缺乏垂直领域知识,无法准确识别内部特有的 SKU 编码规则
使用 Chinese-LLaMA-Alpaca 后
- 直接在本地服务器部署,断网环境下也能稳定运行,彻底消除数据外泄隐患
- 基于中文语料预训练,对电商专业术语和口语化指令的理解显著提升
- 支持 CPU/GPU 量化技术,旧款显卡即可流畅推理,大幅降低硬件门槛
- 通过官方提供的精调脚本,仅用少量内部文档即可完成模型定制化训练
核心价值:让中小企业以极低成本实现安全可控的中文大模型私有化应用。
运行环境要求
- 未说明
非必需,支持 CPU/GPU 本地部署,具体型号及显存要求未说明
未说明

快速开始
Chinese-LLaMA-Alpaca-3 项目启动!
🇨🇳中文 | 🌐English | 📖文档/Docs | ❓提问/Issues | 💬讨论/Discussions | ⚔️竞技场/Arena
本项目开源了中文 LLaMA 模型和指令精调的 Alpaca 大模型,以进一步促进大模型在中文 NLP 社区的开放研究。这些模型在原版 LLaMA 的基础上扩充了中文词表并使用了中文数据进行二次预训练,进一步提升了中文基础语义理解能力。同时,中文 Alpaca 模型进一步使用了中文指令数据进行精调,显著提升了模型对指令的理解和执行能力。
技术报告(V2):[Cui, Yang, and Yao] Efficient and Effective Text Encoding for Chinese LLaMA and Alpaca
本项目主要内容:
- 🚀 针对原版 LLaMA 模型扩充了中文词表,提升了中文编解码效率
- 🚀 开源了使用中文文本数据预训练的中文 LLaMA 以及经过指令精调的中文 Alpaca
- 🚀 开源了预训练脚本、指令精调脚本,用户可根据需要进一步训练模型
- 🚀 快速使用笔记本电脑(个人 PC)的 CPU/GPU 本地量化和部署体验大模型
- 🚀 支持 🤗transformers, llama.cpp, text-generation-webui, LlamaChat, LangChain, privateGPT 等生态
- 目前已开源的模型版本:7B(基础版、Plus 版、Pro 版)、13B(基础版、Plus 版、Pro 版)、33B(基础版、Plus 版、Pro 版)
💡 下图是中文 Alpaca-Plus-7B 模型在本地 CPU 量化部署后的实际体验速度和效果。

中文 LLaMA-2&Alpaca-2 大模型 | 多模态中文 LLaMA&Alpaca 大模型 | 多模态 VLE | 中文 MiniRBT | 中文 LERT | 中英文 PERT | 中文 MacBERT | 中文 ELECTRA | 中文 XLNet | 中文 BERT | 知识蒸馏工具 TextBrewer | 模型裁剪工具 TextPruner
新闻
[2024/04/30] Chinese-LLaMA-Alpaca-3 已正式发布,开源基于 Llama-3 的 Llama-3-Chinese-8B 和 Llama-3-Chinese-8B-Instruct,推荐所有一期、二期项目用户升级至三代模型,请参阅:https://github.com/ymcui/Chinese-LLaMA-Alpaca-3
[2024/03/27] 本项目已入驻机器之心 SOTA! 模型平台,欢迎关注:https://sota.jiqizhixin.com/project/chinese-llama-alpaca
[2023/08/14] Chinese-LLaMA-Alpaca-2 v2.0 版本已正式发布,开源 Chinese-LLaMA-2-13B 和 Chinese-Alpaca-2-13B,推荐所有一期用户升级至二代模型,请参阅:https://github.com/ymcui/Chinese-LLaMA-Alpaca-2
[2023/07/31] Chinese-LLaMA-Alpaca-2 v1.0 版本已正式发布,请参阅:https://github.com/ymcui/Chinese-LLaMA-Alpaca-2
[2023/07/19] v5.0 版本: 发布 Alpaca-Pro 系列模型,显著提升回复长度和质量;同时发布 Plus-33B 系列模型。
[2023/07/19] 🚀启动 中文 LLaMA-2、Alpaca-2 开源大模型项目,欢迎关注了解最新信息。
[2023/07/10] Beta 测试预览,提前了解即将到来的更新:详见 讨论区
[2023/07/07] Chinese-LLaMA-Alpaca 家族再添新成员,推出面向视觉问答与对话的 多模态中文 LLaMA&Alpaca 大模型,发布了 7B 测试版本。
[2023/06/30] llama.cpp 下 8K context 支持(无需对模型做出修改),相关方法和讨论见 讨论区;transformers 下支持 4K+ context 的代码请参考 PR#705
[2023/06/16] v4.1 版本: 发布新版技术报告、添加 C-Eval 解码脚本、添加低资源模型合并脚本等。
[2023/06/08] v4.0 版本: 发布中文 LLaMA/Alpaca-33B、添加 privateGPT 使用示例、添加 C-Eval 结果等。
内容导引
| 章节 | 描述 |
|---|---|
| ⏬模型下载 | 中文 LLaMA、Alpaca 大模型下载地址 |
| 🈴合并模型 | (重要)介绍如何将下载的 LoRA 模型与原版 LLaMA 合并 |
| 💻本地推理与快速部署 | 介绍了如何对模型进行量化并使用个人电脑部署并体验大模型 |
| 💯系统效果 | 介绍了部分场景和任务下的使用体验效果 |
| 📝训练细节 | 介绍了中文 LLaMA、Alpaca 大模型的训练细节 |
| ❓FAQ | 一些常见问题的回复 |
| ⚠️局限性 | 本项目涉及模型的局限性 |
模型下载
用户须知(必读)
Facebook 官方发布的 LLaMA 模型禁止商用,并且官方没有正式开源模型权重(虽然网上已经有很多第三方的下载地址)。为了遵循相应的许可,这里发布的是 LoRA 权重,可以理解为原 LLaMA 模型上的一个“补丁”,两者合并即可获得完整版权重。以下中文 LLaMA/Alpaca LoRA 模型无法单独使用,需要搭配 原版 LLaMA 模型。请参考本项目给出的 合并模型 步骤重构模型。
模型列表
下图展示了本项目以及 二期项目 推出的所有大模型之间的关系。

模型选择指引
下面是中文 LLaMA 和 Alpaca 模型的基本对比以及建议使用场景(包括但不限于),更多内容见 训练细节。
| 对比项 | 中文 LLaMA | 中文 Alpaca |
|---|---|---|
| 训练方式 | 传统 CLM(自回归语言模型) | 指令精调 |
| 模型类型 | 基座模型 | 指令理解模型(类 ChatGPT) |
| 训练语料 | 无标注通用语料 | 有标注指令数据 |
| 词表大小[3] | 49953 | 49954=49953+1(pad token,填充 token) |
| 输入模板 | 不需要 | 需要符合模板要求[1] |
| 适用场景 ✔️ | 文本续写:给定上文内容,让模型生成下文 | 指令理解(问答、写作、建议等);多轮上下文理解(聊天等) |
| 不适用场景 ❌ | 指令理解 、多轮聊天等 | 文本无限制自由生成 |
| llama.cpp | 使用-p参数指定上文 |
使用-ins参数启动指令理解 + 聊天模式 |
| text-generation-webui | 不适合 chat 模式 | 使用--cpu可在无显卡形式下运行 |
| LlamaChat | 加载模型时选择"LLaMA" | 加载模型时选择"Alpaca" |
| HF(Hugging Face)推理代码 | 无需添加额外启动参数 | 启动时添加参数 --with_prompt |
| web-demo 代码 | 不适用 | 直接提供 Alpaca 模型位置即可;支持多轮对话 |
| LangChain 示例 / privateGPT | 不适用 | 直接提供 Alpaca 模型位置即可 |
| 已知问题 | 如果不控制终止,则会一直写下去,直到达到输出长度上限。[2] | 请使用 Pro 版,以避免 Plus 版回复过短的问题。 |
[1] llama.cpp/LlamaChat/HF(Hugging Face)推理代码/web-demo 代码/LangChain 示例 等已内嵌,无需手动添加模板。
[2] 如果出现模型回答质量特别低、胡言乱语、不理解问题等情况,请检查是否使用了正确的模型和启动参数。
[3] 经过指令精调的 Alpaca 会比 LLaMA 多一个 pad token(填充 token),因此请勿混用 LLaMA/Alpaca 词表。
推荐模型下载
以下为本项目推荐使用的模型列表,通常使用了更多的训练数据和优化的模型训练方法和参数,请优先使用这些模型(其余模型请查看 其他模型)。如希望体验类 ChatGPT 对话交互,请使用 Alpaca 模型,而不是 LLaMA 模型。 对于 Alpaca 模型,Pro 版针对回复内容过短的问题进行改进,模型回复效果有明显提升;如果更偏好短回复,请选择 Plus 系列。
| 模型名称 | 类型 | 训练数据 | 重构模型[1] | 大小[2] | LoRA(低秩自适应)下载[3] |
|---|---|---|---|---|---|
| Chinese-LLaMA-Plus-7B | 基座模型 | 通用 120G | 原版 LLaMA-7B | 790M | [🤗HF] [🤖ModelScope] [Baidu] |
| Chinese-LLaMA-Plus-13B | 基座模型 | 通用 120G | 原版 LLaMA-13B | 1.0G | [🤗HF] [🤖ModelScope] [Baidu] |
| Chinese-LLaMA-Plus-33B 🆕 | 基座模型 | 通用 120G | 原版 LLaMA-33B | 1.3G[6] | [🤗HF] [🤖ModelScope] [Baidu] |
| Chinese-Alpaca-Pro-7B 🆕 | 指令模型 | 指令 4.3M | 原版 LLaMA-7B & LLaMA-Plus-7B[4] |
1.1G | [🤗HF] [🤖ModelScope] [Baidu] |
| Chinese-Alpaca-Pro-13B 🆕 | 指令模型 | 指令 4.3M | 原版 LLaMA-13B & LLaMA-Plus-13B[4] |
1.3G | [🤗HF] [🤖ModelScope] [Baidu] |
| Chinese-Alpaca-Pro-33B 🆕 | 指令模型 | 指令 4.3M | 原版 LLaMA-33B & LLaMA-Plus-33B[4] |
2.1G | [🤗HF] [🤖ModelScope] [Baidu] |
[1] 重构需要原版 LLaMA 模型,去 LLaMA 项目申请使用 或参考这个 PR。因版权问题本项目无法提供下载链接。
[2] 经过重构后的模型大小比同等量级的原版 LLaMA 大一些(主要因为扩充了词表)。
[3] 下载后务必检查压缩包中模型文件的 SHA256 是否一致,请查看 SHA256.md。
[4] Alpaca-Plus 模型需要同时下载对应的 LLaMA-Plus 模型,请参考 [合并教程](https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/手动模型合并与转换#多 lora 权重合并适用于 chinese-alpaca-plus)。
[5] 有些地方称为 30B,实际上是 Facebook 在发布模型时写错了,论文里仍然写的是 33B。
[6] 采用 FP16(半精度浮点数)存储,故模型体积较小。
压缩包内文件目录如下(以 Chinese-LLaMA-7B 为例):
chinese_llama_lora_7b/
- adapter_config.json # LoRA 权重配置文件
- adapter_model.bin # LoRA 权重文件
- special_tokens_map.json # special_tokens_map 文件
- tokenizer_config.json # tokenizer 配置文件
- tokenizer.model # tokenizer 文件
其他模型下载
由于训练方式和训练数据等因素影响,以下模型已不再推荐使用(特定场景下可能仍然有用),请优先使用上一节中的 推荐模型。
| 模型名称 | 类型 | 训练数据 | 重构模型 | 大小 | LoRA 下载 |
|---|---|---|---|---|---|
| Chinese-LLaMA-7B | 基座模型 | 通用 20G | 原版 LLaMA-7B | 770M | [🤗HF] [🤖ModelScope] [Baidu] |
| Chinese-LLaMA-13B | 基座模型 | 通用 20G | 原版 LLaMA-13B | 1.0G | [🤗HF] [🤖ModelScope] [Baidu] |
| Chinese-LLaMA-33B | 基座模型 | 通用 20G | 原版 LLaMA-33B | 2.7G | [🤗HF] [🤖ModelScope] [Baidu] |
| Chinese-Alpaca-7B | 指令模型 | 指令 2M | 原版 LLaMA-7B | 790M | [🤗HF] [🤖ModelScope] [Baidu] |
| Chinese-Alpaca-13B | 指令模型 | 指令 3M | 原版 LLaMA-13B | 1.1G | [🤗HF] [🤖ModelScope] [Baidu] |
| Chinese-Alpaca-33B | 指令模型 | 指令 4.3M | 原版 LLaMA-33B | 2.8G | [🤗HF] [🤖ModelScope] [Baidu] |
| Chinese-Alpaca-Plus-7B | 指令模型 | 指令 4M | 原版 LLaMA-7B & LLaMA-Plus-7B |
1.1G | [🤗HF] [🤖ModelScope] [Baidu] |
| Chinese-Alpaca-Plus-13B | 指令模型 | 指令 4.3M | 原版 LLaMA-13B & LLaMA-Plus-13B |
1.3G | [🤗HF] [🤖ModelScope] [Baidu] |
| Chinese-Alpaca-Plus-33B | 指令模型 | 指令 4.3M | 原版 LLaMA-33B & LLaMA-Plus-33B |
2.1G | [🤗HF] [🤖ModelScope] [Baidu] |
🤗transformers 调用
可以在🤗Model Hub 下载以上所有模型,并且使用 transformers 和 PEFT 调用中文 LLaMA 或 Alpaca LoRA 模型。以下模型调用名称指的是使用 .from_pretrained() 中指定的模型名称。
详细清单与模型下载地址:https://huggingface.co/hfl
合并模型
前面提到 LoRA 模型无法单独使用,必须与原版 LLaMA 进行合并才能转为完整模型,以便进行模型推理、量化或者进一步训练。请选择以下方法对模型进行转换合并。
| 方式 | 适用场景 | 教程 |
|---|---|---|
| 在线转换 | Colab 用户可利用本项目提供的 notebook 进行在线转换并量化模型 | 链接 |
| 手动转换 | 离线方式转换,生成不同格式的模型,以便进行量化或进一步精调 | 链接 |
以下是合并模型后,FP16 精度和 4-bit 量化后的大小,转换前确保本机有足够的内存和磁盘空间(最低要求):
| 模型版本 | 7B | 13B | 33B | 65B |
|---|---|---|---|---|
| 原模型大小(FP16) | 13 GB | 24 GB | 60 GB | 120 GB |
| 量化后大小(8-bit) | 7.8 GB | 14.9 GB | 32.4 GB | ~60 GB |
| 量化后大小(4-bit) | 3.9 GB | 7.8 GB | 17.2 GB | 38.5 GB |
具体内容请参考本项目 >>> 📚 GitHub Wiki
本地推理与快速部署
本项目中的模型主要支持以下量化、推理和部署方式。
| 推理和部署方式 | 特点 | 平台 | CPU | GPU | 量化加载 | 图形界面 | 教程 |
|---|---|---|---|---|---|---|---|
| llama.cpp | 丰富的量化选项和高效本地推理 | 通用 | ✅ | ✅ | ✅ | ❌ | [link](https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/llama.cpp 量化部署) |
| 🤗Transformers | 原生 transformers 推理接口 | 通用 | ✅ | ✅ | ✅ | ✅ | [link](https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/使用 Transformers 推理) |
| text-generation-webui | 前端 Web UI 界面的部署方式 | 通用 | ✅ | ✅ | ✅ | ✅ | [link](https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/使用 text-generation-webui 搭建界面) |
| LlamaChat | macOS 下的图形交互界面 | MacOS | ✅ | ❌ | ✅ | ✅ | [link](https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/使用 LlamaChat 图形界面(macOS)) |
| LangChain | LLM 应用开发框架,适用于进行二次开发 | 通用 | ✅† | ✅ | ✅† | ❌ | [link](https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/与 LangChain 进行集成) |
| privateGPT | 基于 LangChain 的多文档本地问答框架 | 通用 | ✅ | ✅ | ✅ | ❌ | [link](https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/使用 privateGPT 进行多文档问答) |
| Colab Gradio Demo | Colab 中启动基于 Gradio 的交互式 Web 服务 | 通用 | ✅ | ✅ | ✅ | ❌ | link |
| API 调用 | 仿 OpenAI API 接口的服务器 Demo | 通用 | ✅ | ✅ | ✅ | ❌ | [link](https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/API 调用) |
†: LangChain 框架支持,但教程中未实现;详细说明请参考 LangChain 官方文档。
具体内容请参考本项目 >>> 📚 GitHub Wiki
系统效果
生成效果评测
为了快速评测相关模型的实际文本生成表现,本项目在给定相同的 prompt 的情况下,在一些常见任务上对比测试了本项目的中文 Alpaca-7B、中文 Alpaca-13B、中文 Alpaca-33B、中文 Alpaca-Plus-7B、中文 Alpaca-Plus-13B 的效果。生成回复具有随机性,受解码超参、随机种子等因素影响。以下相关评测并非绝对严谨,测试结果仅供晾晒参考,欢迎自行体验。
- 详细评测结果及生成样例请查看 examples 目录
- 📊 Alpaca 模型在线对战:http://llm-arena.ymcui.com
客观效果评测
本项目还在"NLU"类客观评测集合上对相关模型进行了测试。这类评测的结果不具有主观性,只需要输出给定标签(需要设计标签 mapping 策略),因此可以从另外一个侧面了解大模型的能力。本项目在近期推出的 C-Eval 评测数据集 上测试了相关模型效果,其中测试集包含 12.3K 个选择题,涵盖 52 个学科。以下是部分模型的 valid 和 test 集评测结果(Average),完整结果请参考 技术报告。
| 模型 | Valid (zero-shot) | Valid (5-shot) | Test (zero-shot) | Test (5-shot) |
|---|---|---|---|---|
| Chinese-Alpaca-Plus-33B | 46.5 | 46.3 | 44.9 | 43.5 |
| Chinese-Alpaca-33B | 43.3 | 42.6 | 41.6 | 40.4 |
| Chinese-Alpaca-Plus-13B | 43.3 | 42.4 | 41.5 | 39.9 |
| Chinese-Alpaca-Plus-7B | 36.7 | 32.9 | 36.4 | 32.3 |
| Chinese-LLaMA-Plus-33B | 37.4 | 40.0 | 35.7 | 38.3 |
| Chinese-LLaMA-33B | 34.9 | 38.4 | 34.6 | 39.5 |
| Chinese-LLaMA-Plus-13B | 27.3 | 34.0 | 27.8 | 33.3 |
| Chinese-LLaMA-Plus-7B | 27.3 | 28.3 | 26.9 | 28.4 |
需要注意的是,综合评估大模型能力仍然是亟待解决的重要课题,合理辩证地看待大模型相关各种评测结果有助于大模型技术的良性发展。推荐用户在自己关注的任务上进行测试,选择适配相关任务的模型。
C-Eval 推理代码请参考本项目 >>> [📚 GitHub Wiki](https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/C-Eval 评测结果与脚本)
训练细节
整个训练流程包括词表扩充、预训练和指令精调三部分。
- 本项目的模型均在原 LLaMA 词表的基础上扩充了中文单词,代码请参考 merge_tokenizers.py
- 预训练和指令精调代码参考了🤗transformers 中的 run_clm.py 和 Stanford Alpaca 项目中数据集处理的相关部分
- 已开源用于预训练和指令精调的训练脚本:预训练脚本 Wiki、指令精调脚本 Wiki
具体内容请参考本项目 >>> 📚 GitHub Wiki
FAQ
FAQ 中给出了常见问题的解答,请在提 Issue 前务必先查看 FAQ。
问题 1:为什么不能放出完整版本权重?
问题 2:后面会有 33B、65B 的版本吗?
问题 3:一些任务上效果不好!
问题 4:为什么要扩充词表?直接在原版 LLaMA 上用中文预训练不行吗?
问题 5:回复内容很短
问题 6:Windows 下,模型无法理解中文、生成速度很慢等问题
问题 7:Chinese-LLaMA 13B 模型没法用 llama.cpp 启动,提示维度不一致
问题 8:Chinese-Alpaca-Plus 效果很差
问题 9:模型在 NLU 类任务(文本分类等)上效果不好
问题 10:为什么叫 33B,不应该是 30B 吗?
问题 11:模型合并之后 SHA256 不一致
具体问题和解答请参考本项目 >>> 📚 GitHub Wiki
局限性
虽然本项目中的模型具备一定的中文理解和生成能力,但也存在局限性,包括但不限于:
- 可能会产生不可预测的有害内容以及不符合人类偏好和价值观的内容
- 由于算力和数据问题,相关模型的训练并不充分,中文理解能力有待进一步提升
- 暂时没有在线可互动的 demo(注:用户仍然可以自行在本地部署)
引用
如果您觉得本项目对您的研究有所帮助或使用了本项目的代码或数据,请参考引用本项目的技术报告:https://arxiv.org/abs/2304.08177
@article{chinese-llama-alpaca,
title={Efficient and Effective Text Encoding for Chinese LLaMA and Alpaca},
author={Cui, Yiming and Yang, Ziqing and Yao, Xin},
journal={arXiv preprint arXiv:2304.08177},
url={https://arxiv.org/abs/2304.08177},
year={2023}
}
相关项目
| 项目名称 | 简介 | 类型 |
|---|---|---|
| Chinese-LLaMA-Alpaca-2(官方项目) | 中文 LLaMA-2、Alpaca-2 大模型 | 文本 |
| Visual-Chinese-LLaMA-Alpaca(官方项目) | 多模态中文 LLaMA & Alpaca 大模型 | 多模态 |
想要加入列表?>>> 提交申请
致谢
本项目基于以下开源项目二次开发,在此对相关项目和研究开发人员表示感谢。
免责声明
本项目相关资源仅供学术研究之用,严禁用于商业用途。 使用涉及第三方代码的部分时,请严格遵循相应的开源协议。模型生成的内容受模型计算、随机性和量化精度损失等因素影响,本项目不对其准确性作出保证。对于模型输出的任何内容,本项目不承担任何法律责任,亦不对因使用相关资源和输出结果而可能产生的任何损失承担责任。本项目由个人及协作者业余时间发起并维护,因此无法保证能及时回复解决相应问题。
问题反馈
如有问题,请在 GitHub Issue 中提交。礼貌地提出问题,构建和谐的讨论社区。
- 在提交问题之前,请先查看 FAQ 能否解决问题,同时建议查阅以往的 issue 是否能解决你的问题。
- 提交问题请使用本项目设置的 Issue 模板,以帮助快速定位具体问题。
- 重复以及与本项目无关的 issue 会被 stable-bot 处理,敬请谅解。
版本历史
v5.02023/07/19v4.22023/07/05v4.12023/06/16v4.02023/06/08v3.22023/05/16v3.12023/05/10v3.02023/04/28v2.22023/04/18v2.12023/04/13v2.02023/04/07v1.12023/03/31v1.02023/03/28常见问题
相似工具推荐
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。
