[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-xtekky--gpt4free":3,"tool-xtekky--gpt4free":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":81,"owner_website":82,"owner_url":83,"languages":84,"stars":104,"forks":105,"last_commit_at":106,"license":107,"difficulty_score":23,"env_os":108,"env_gpu":109,"env_ram":110,"env_deps":111,"category_tags":120,"github_topics":121,"view_count":142,"oss_zip_url":81,"oss_zip_packed_at":81,"status":16,"created_at":143,"updated_at":144,"faqs":145,"releases":171},3074,"xtekky\u002Fgpt4free","gpt4free","The official gpt4free repository | various collection of powerful language models | opus 4.6 gpt 5.3 kimi 2.5 deepseek v3.2 gemini 3","gpt4free 是一个由社区驱动的开源项目，旨在聚合多种可访问的大型语言模型（LLM）和媒体生成接口，让用户能更灵活、便捷地使用前沿 AI 能力。它解决了直接调用各类模型时面临的接口分散、门槛高或成本昂贵等痛点，通过统一的标准将不同提供商的资源整合在一起。\n\n无论是希望快速集成 AI 功能的开发者、需要多模型对比测试的研究人员，还是想免费体验最新技术的普通用户，都能从中受益。gpt4free 提供了丰富的使用方式：既包含易于上手的 Python 和 JavaScript 客户端库，也支持部署本地图形界面（GUI），更提供了兼容 OpenAI 标准的 REST API，方便无缝替换现有应用后端。\n\n其技术亮点在于强大的多提供商支持架构，能够动态调度包括 Opus、Gemini、DeepSeek 等多种主流模型资源，并支持 Docker 一键部署及本地推理。项目秉持社区优先原则，在降低使用门槛的同时，也为贡献者提供了扩展新接口的便利框架，是探索和利用多样化 AI 资源的实用工具。","# GPT4Free (g4f)\n\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fg4f)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fg4f) [![Docker Hub](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocker-hlohaus789%2Fg4f-blue)](https:\u002F\u002Fhub.docker.com\u002Fr\u002Fhlohaus789\u002Fg4f) [![License: GPL v3](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-GPLv3-red.svg)](https:\u002F\u002Fwww.gnu.org\u002Flicenses\u002Fgpl-3.0.txt) [![PyPI Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxtekky_gpt4free_readme_3399f9c984ec.png)](https:\u002F\u002Fpepy.tech\u002Fprojects\u002Fg4f)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxtekky_gpt4free_readme_5898d2a96c13.png\" alt=\"GPT4Free logo\" height=\"200\" \u002F>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cspan style=\"background: linear-gradient(45deg, #12c2e9, #c471ed, #f64f59); -webkit-background-clip: text; -webkit-text-fill-color: transparent;\">\n    \u003Cstrong>Created by \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fxtekky\">@xtekky\u003C\u002Fa>,\u003Cbr> maintained by \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fhlohaus\">@hlohaus\u003C\u002Fa>\u003C\u002Fstrong>\n  \u003C\u002Fspan>\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n\u003Cspan>Support the project on\u003C\u002Fspan>\n      \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsponsors\u002Fhlohaus\" target=\"_blank\" rel=\"noopener noreferrer\">\n        GitHub Sponsors\n      \u003C\u002Fa>\n      ❤️\n\u003C\u002Fp>\n\u003Cp align=\"center\">\nLive demo & docs: https:\u002F\u002Fg4f.dev | Documentation: https:\u002F\u002Fg4f.dev\u002Fdocs\n\u003C\u002Fp>\n\n---\n\nGPT4Free (g4f) is a community-driven project that aggregates multiple accessible providers and interfaces to make working with modern LLMs and media-generation models easier and more flexible. GPT4Free aims to offer multi-provider support, local GUI, OpenAI-compatible REST APIs, and convenient Python and JavaScript clients — all under a community-first license.\n\nThis README is a consolidated, improved, and complete guide to installing, running, and contributing to GPT4Free.\n\nTable of contents\n- [What’s included](#whats-included)\n- [Quick links](#quick-links)\n- [Requirements & compatibility](#requirements--compatibility)\n- [Installation](#installation)\n  - [Docker (recommended)](#docker-recommended)\n  - [Slim Docker image](#slim-docker-image)\n  - [Windows (.exe)](#windows-exe)\n  - [Python (pip \u002F from source \u002F partial installs)](#python-pip--from-source--partial-installs)\n- [Running the app](#running-the-app)\n  - [GUI (web client)](#gui-web-client)\n  - [FastAPI \u002F Interference API](#fastapi--interference-api)\n  - [CLI](#cli)\n  - [Optional provider login (desktop in container)](#optional-provider-login-desktop-in-container)\n- [Using the Python client](#using-the-python-client)\n  - [Synchronous text example](#synchronous-text-example)\n  - [Image generation example](#image-generation-example)\n  - [Async client example](#async-client-example)\n- [Using GPT4Free.js (browser JS client)](#using-gpt4freejs-browser-js-client)\n- [Providers & models (overview)](#providers--models-overview)\n- [Local inference & media](#local-inference--media)\n- [Configuration & customization](#configuration--customization)\n- [Running on smartphone](#running-on-smartphone)\n- [Interference API (OpenAI‑compatible)](#interference-api-openai-compatible)\n- [Examples & common patterns](#examples--common-patterns)\n- [Contributing](#contributing)\n  - [How to create a new provider](#how-to-create-a-new-provider)\n  - [How AI can help you write code](#how-ai-can-help-you-write-code)\n- [Security, privacy & takedown policy](#security-privacy--takedown-policy)\n- [Credits, contributors & attribution](#credits-contributors--attribution)\n- [Powered-by highlights](#powered-by-highlights)\n- [Changelog & releases](#changelog--releases)\n- [Manifesto \u002F Project principles](#manifesto--project-principles)\n- [License](#license)\n- [Contact & sponsorship](#contact--sponsorship)\n- [Appendix: Quick commands & examples](#appendix-quick-commands--examples)\n\n---\n\n## What’s included\n- Python client library and async client.\n- Optional local web GUI.\n- FastAPI-based OpenAI-compatible API (Interference API).\n- Official browser JS client (g4f.dev distribution).\n- Docker images (full and slim).\n- Multi-provider adapters (LLMs, media providers, local inference backends).\n- Tooling for image\u002Faudio\u002Fvideo generation and media persistence.\n\n---\n\n## Quick links\n- Website & docs: https:\u002F\u002Fg4f.dev | https:\u002F\u002Fg4f.dev\u002Fdocs  \n- PyPI: https:\u002F\u002Fpypi.org\u002Fproject\u002Fg4f  \n- Docker image: https:\u002F\u002Fhub.docker.com\u002Fr\u002Fhlohaus789\u002Fg4f  \n- Releases: https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Freleases  \n- Issues: https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fissues  \n- Community: Telegram (https:\u002F\u002Ftelegram.me\u002Fg4f_channel) · Discord News (https:\u002F\u002Fdiscord.gg\u002F5E39JUWUFa) · Discord Support (https:\u002F\u002Fdiscord.gg\u002FqXA4Wf4Fsm)\n\n---\n\n## Requirements & compatibility\n- Python 3.10+ recommended.\n- Google Chrome\u002FChromium for providers using browser automation.\n- Docker for containerized deployment.\n- Works on x86_64 and arm64 (slim image supports both).\n- Some provider adapters may require platform-specific tooling (Chrome\u002FChromium, etc.). Check provider docs for details.\n\n---\n\n## Installation\n\n### Docker (recommended)\n1. Install Docker: https:\u002F\u002Fdocs.docker.com\u002Fget-docker\u002F\n2. Create persistent directories:\n   - Example (Linux\u002FmacOS):\n     ```bash\n     mkdir -p ${PWD}\u002Fhar_and_cookies ${PWD}\u002Fgenerated_media\n     sudo chown -R 1200:1201 ${PWD}\u002Fhar_and_cookies ${PWD}\u002Fgenerated_media\n     ```\n3. Pull image:\n   ```bash\n   docker pull hlohaus789\u002Fg4f\n   ```\n4. Run container:\n   ```bash\n   docker run -p 8080:8080 -p 7900:7900 \\\n     --shm-size=\"2g\" \\\n     -v ${PWD}\u002Fhar_and_cookies:\u002Fapp\u002Fhar_and_cookies \\\n     -v ${PWD}\u002Fgenerated_media:\u002Fapp\u002Fgenerated_media \\\n     hlohaus789\u002Fg4f:latest\n   ```\nNotes:\n- Port 8080 serves GUI\u002FAPI; 7900 can expose a VNC-like desktop for provider logins (optional).\n- Increase --shm-size for heavier browser automation tasks.\n\n### Slim Docker image (x64 & arm64)\n```bash\nmkdir -p ${PWD}\u002Fhar_and_cookies ${PWD}\u002Fgenerated_media\nchown -R 1000:1000 ${PWD}\u002Fhar_and_cookies ${PWD}\u002Fgenerated_media\n\ndocker run \\\n  -p 1337:8080 -p 8080:8080 \\\n  -v ${PWD}\u002Fhar_and_cookies:\u002Fapp\u002Fhar_and_cookies \\\n  -v ${PWD}\u002Fgenerated_media:\u002Fapp\u002Fgenerated_media \\\n  hlohaus789\u002Fg4f:latest-slim\n```\nNotes:\n- The slim image can update the g4f package on startup and installs additional dependencies as needed.\n- In this example, the Interference API is mapped to 1337.\n\n### Windows Guide (.exe)\n\n👉 Check out the Windows launcher for GPT4Free:  \n🔗 [https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe) 🚀  \n\n1. Download the release artifact `g4f.exe.zip` from:\n   https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Freleases\u002Flatest\n2. Unzip and run `g4f.exe`.\n3. Open GUI at: http:\u002F\u002Flocalhost:8080\u002Fchat\u002F\n4. If Windows Firewall blocks access, allow the application.\n\n### Python Installation (pip \u002F from source \u002F partial installs)\n\nPrerequisites:\n- Python 3.10+ (https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F)\n- Chrome\u002FChromium for some providers.\n\nInstall from PyPI (recommended):\n```bash\npip install -U g4f[all]\n```\n\nPartial installs\n- To install only specific functionality, use optional extras groups. See docs\u002Frequirements.md in the project docs.\n\nInstall from source:\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free.git\ncd gpt4free\npip install -r requirements.txt\npip install -e .\n```\n\nNotes:\n- Some features require Chrome\u002FChromium or other tools; follow provider-specific docs.\n\n---\n\n## Running the app\n\n### GUI (web client)\n- Run via Python:\n```python\nfrom g4f.gui import run_gui\nrun_gui()\n```\n- Or via CLI:\n```bash\npython -m g4f.cli gui --port 8080 --debug\n```\n- Open: http:\u002F\u002Flocalhost:8080\u002Fchat\u002F\n\n### FastAPI \u002F Interference API\n- Start FastAPI server:\n```bash\npython -m g4f --port 8080 --debug\n```\n- If using slim docker mapping, Interference API may be available at `http:\u002F\u002Flocalhost:1337\u002Fv1`\n- Swagger UI: `http:\u002F\u002Flocalhost:1337\u002Fdocs`\n\n### CLI\n- Start GUI server:\n```bash\npython -m g4f.cli gui --port 8080 --debug\n```\n\n### MCP Server\nGPT4Free now includes a Model Context Protocol (MCP) server that allows AI assistants like Claude to access web search, scraping, and image generation capabilities.\n\n**Starting the MCP server (stdio mode):**\n```bash\n# Using g4f command\ng4f mcp\n\n# Or using Python module\npython -m g4f.mcp\n```\n\n**Starting the MCP server (HTTP mode):**\n```bash\n# Start HTTP server on port 8765\ng4f mcp --http --port 8765\n\n# Custom host and port\ng4f mcp --http --host 127.0.0.1 --port 3000\n```\n\nHTTP mode provides:\n- `POST http:\u002F\u002Flocalhost:8765\u002Fmcp` - JSON-RPC endpoint\n- `GET http:\u002F\u002Flocalhost:8765\u002Fhealth` - Health check\n\n**Configuring with Claude Desktop:**\n\nAdd to your `claude_desktop_config.json`:\n```json\n{\n  \"mcpServers\": {\n    \"gpt4free\": {\n      \"command\": \"python\",\n      \"args\": [\"-m\", \"g4f.mcp\"]\n    }\n  }\n}\n```\n\n**Available MCP Tools:**\n- `web_search` - Search the web using DuckDuckGo\n- `web_scrape` - Extract text content from web pages  \n- `image_generation` - Generate images from text prompts\n\nFor detailed MCP documentation, see [g4f\u002Fmcp\u002FREADME.md](g4f\u002Fmcp\u002FREADME.md)\n\n### Optional provider login (desktop within container)\n- Accessible at:\n  ```\n  http:\u002F\u002Flocalhost:7900\u002F?autoconnect=1&resize=scale&password=secret\n  ```\n- Useful for logging into web-based providers to obtain cookies\u002FHAR files.\n\n---\n\n## Using the Python client\n\nInstall:\n```bash\npip install -U g4f[all]\n```\n\nSynchronous text example:\n```python\nfrom g4f.client import Client\n\nclient = Client()\nresponse = client.chat.completions.create(\n    model=\"gpt-4o-mini\",\n    messages=[{\"role\": \"user\", \"content\": \"Hello, how are you?\"}],\n    web_search=False\n)\nprint(response.choices[0].message.content)\n```\nExpected:\n```\nHello! How can I assist you today?\n```\n\nImage generation example:\n```python\nfrom g4f.client import Client\n\nclient = Client()\nresponse = client.images.generate(\n    model=\"flux\",\n    prompt=\"a white siamese cat\",\n    response_format=\"url\"\n)\nprint(f\"Generated image URL: {response.data[0].url}\")\n```\n\nAsync client example:\n```python\nfrom g4f.client import AsyncClient\nimport asyncio\n\nasync def main():\n    client = AsyncClient()\n    response = await client.chat.completions.create(\n        model=\"gpt-4o-mini\",\n        messages=[{\"role\": \"user\", \"content\": \"Explain quantum computing briefly\"}],\n    )\n    print(response.choices[0].message.content)\n\nasyncio.run(main())\n```\n\nNotes:\n- See the full API reference for streaming, tool-calling patterns, and advanced options: https:\u002F\u002Fg4f.dev\u002Fdocs\u002Fclient\n\n---\n\n## Using GPT4Free.js (browser JS client)\nUse the official JS client in the browser—no backend required.\n\nExample:\n```html\n\u003Cscript type=\"module\">\n  import Client from 'https:\u002F\u002Fg4f.dev\u002Fdist\u002Fjs\u002Fclient.js';\n\n  const client = new Client();\n  const result = await client.chat.completions.create({\n      model: 'gpt-4.1',  \u002F\u002F Or \"gpt-4o\", \"deepseek-v3\", etc.\n      messages: [{ role: 'user', content: 'Explain quantum computing' }]\n  });\n  console.log(result.choices[0].message.content);\n\u003C\u002Fscript>\n```\n\nNotes:\n- The JS client is distributed via the g4f.dev CDN for easy usage. Review CORS considerations and usage limits.\n\n---\n\n## Providers & models (overview)\n- GPT4Free integrates many providers including (but not limited to) OpenAI-compatible endpoints, PerplexityLabs, Gemini, MetaAI, Pollinations (media), and local inference backends.\n- Model availability and behavior depend on provider capabilities. See the providers doc for current, supported provider\u002Fmodel lists: https:\u002F\u002Fg4f.dev\u002Fdocs\u002Fproviders-and-models\n\nProvider requirements may include:\n- API keys or tokens (for authenticated providers)\n- Browser cookies \u002F HAR files for providers scraped via browser automation\n- Chrome\u002FChromium or headless browser tooling\n- Local model binaries and runtime (for local inference)\n\n---\n\n## Local inference & media\n- GPT4Free supports local inference backends. See [docs\u002Flocal.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Flocal.md) for supported runtimes and hardware guidance.\n- Media generation (image, audio, video) is supported through providers (e.g., Pollinations). See [docs\u002Fmedia.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Fmedia.md) for formats, options, and sample usage.\n\n---\n\n## Configuration & customization\n- Configure via environment variables, CLI flags, or config files. See [docs\u002Fconfig.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Fconfig.md).\n- To reduce install size, use partial requirement groups. See [docs\u002Frequirements.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Frequirements.md).\n- Provider selection: learn how to set defaults and override per-request at [docs\u002Fselecting_a_provider.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Fselecting_a_provider.md).\n- Persistence: HAR files, cookies, and generated media persist in mapped directories (e.g., har_and_cookies, generated_media).\n\n---\n\n## Running on smartphone\n- The web GUI is responsive and can be accessed from a phone by visiting your host IP:8080 or via a tunnel. See [docs\u002Fguides\u002Fphone.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Fguides\u002Fphone.md).\n\n---\n\n## Interference API (OpenAI‑compatible)\n- The Interference API enables OpenAI-like workflows routed through GPT4Free provider selection.\n- Docs: [docs\u002Finterference-api.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Finterference-api.md)\n- Default endpoint (example slim docker): `http:\u002F\u002Flocalhost:1337\u002Fv1`\n- Swagger UI: `http:\u002F\u002Flocalhost:1337\u002Fdocs`\n\n---\n\n## Examples & common patterns\n- Streaming completions, stopping criteria, system messages, and tool-calling patterns are documented in:\n  - [docs\u002Fclient.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Fclient.md)\n  - [docs\u002Fasync_client.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Fasync_client.md)\n  - [docs\u002Frequests.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Frequests.md)\n- Integrations (LangChain, PydanticAI): [docs\u002Fpydantic_ai.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Fpydantic_ai.md)\n- Legacy examples: [docs\u002Flegacy.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Flegacy.md)\n\n---\n\n## Contributing\nContributions are welcome — new providers, features, docs, and fixes are appreciated.\n\nHow to contribute:\n1. Fork the repository.\n2. Create a branch for your change.\n3. Run tests and linters.\n4. Open a Pull Request with a clear description and tests\u002Fexamples if applicable.\n\nRepository: https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\n\n### How to create a new provider\n- Read the guide: [docs\u002Fguides\u002Fcreate_provider.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Fguides\u002Fcreate_provider.md)\n- Typical steps:\n  - Implement a provider adapter in `g4f\u002FProvider\u002F`\n  - Add configuration and dependency notes\n  - Include tests and usage examples\n  - Respect third‑party code licenses and attribute appropriately\n\n### How AI can help you write code\n- See: [docs\u002Fguides\u002Fhelp_me.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Fguides\u002Fhelp_me.md) for prompt templates and workflows to accelerate development.\n\n---\n\n## Security, privacy & takedown policy\n- Do not store or share sensitive credentials. Use per-provider recommended security practices.\n- If your site appears in the project’s links and you want it removed, send proof of ownership to takedown@g4f.ai and it will be removed promptly.\n- For production, secure the server with HTTPS, authentication, and firewall rules. Limit access to provider credentials and cookie\u002FHAR storage.\n\n---\n\n## Credits, contributors & attribution\n- Core creators: [@xtekky](https:\u002F\u002Fgithub.com\u002Fxtekky) (original), maintained by [@hlohaus](https:\u002F\u002Fgithub.com\u002Fhlohaus).\n- Full contributor graph: https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fgraphs\u002Fcontributors\n- Notable code inputs and attributions:\n  - `har_file.py` — input from [xqdoo00o\u002FChatGPT-to-API](https:\u002F\u002Fgithub.com\u002Fxqdoo00o\u002FChatGPT-to-API)\n  - `PerplexityLabs.py` — input from [nathanrchn\u002Fperplexityai](https:\u002F\u002Fgithub.com\u002Fnathanrchn\u002Fperplexityai)\n  - `Gemini.py` — input from [dsdanielpark\u002FGemini-API](https:\u002F\u002Fgithub.com\u002Fdsdanielpark\u002FGemini-API) and [HanaokaYuzu\u002FGemini-API](https:\u002F\u002Fgithub.com\u002FHanaokaYuzu\u002FGemini-API)\n  - `MetaAI.py` — inspired by [meta-ai-api by Strvm](https:\u002F\u002Fgithub.com\u002FStrvm\u002Fmeta-ai-api)\n  - `proofofwork.py` — input from [missuo\u002FFreeGPT35](https:\u002F\u002Fgithub.com\u002Fmissuo\u002FFreeGPT35)\n\nMany more contributors are acknowledged in the repository.\n\n---\n\n## Powered-by highlights\n- Pollinations AI — generative media: https:\u002F\u002Fgithub.com\u002Fpollinations\u002Fpollinations\n- MoneyPrinter V2 — example project using GPT4Free: https:\u002F\u002Fgithub.com\u002FFujiwaraChoki\u002FMoneyPrinterV2\n- For a full list of projects and sites using GPT4Free, see: [docs\u002Fpowered-by.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Fpowered-by.md)\n\n---\n\n## Changelog & releases\n- Releases and full changelog: https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Freleases\n- Subscribe to Discord\u002FTelegram for announcements.\n\n---\n\n## Manifesto \u002F Project principles\nGPT4Free is guided by community principles:\n1. Open access to AI tooling and models.\n2. Collaboration across providers and projects.\n3. Opposition to monopolistic, closed systems that restrict creativity.\n4. Community-centered development and broad access to AI technologies.\n5. Promote innovation, creativity, and accessibility.\n\nhttps:\u002F\u002Fg4f.dev\u002Fmanifest\n\n---\n\n## License\nThis program is licensed under the GNU General Public License v3.0 (GPLv3). See the full license: https:\u002F\u002Fwww.gnu.org\u002Flicenses\u002Fgpl-3.0.txt\n\nSummary:\n- You may redistribute and\u002For modify under the terms of GPLv3.\n- The program is provided WITHOUT ANY WARRANTY.\n\nCopyright notice\n```\nxtekky\u002Fgpt4free: Copyright (C) 2025 xtekky\n\nThis program is free software: you can redistribute it and\u002For modify\nit under the terms of the GNU General Public License as published by\nthe Free Software Foundation, either version 3 of the License, or\n(at your option) any later version.\n\nThis program is distributed in the hope that it will be useful,\nbut WITHOUT ANY WARRANTY; without even the implied warranty of\nMERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the\nGNU General Public License for more details.\n```\n\n---\n\n## Contact & sponsorship\n- Maintainers: https:\u002F\u002Fgithub.com\u002Fhlohaus  \n- Sponsorship: https:\u002F\u002Fgithub.com\u002Fsponsors\u002Fhlohaus  \n- Issues & feature requests: https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fissues  \n- Takedown requests: takedown@g4f.ai\n\n---\n\n## Appendix: Quick commands & examples\n\nInstall (pip):\n```bash\npip install -U g4f[all]\n```\n\nRun GUI (Python):\n```bash\npython -m g4f.cli gui --port 8080 --debug\n# or\npython -c \"from g4f.gui import run_gui; run_gui()\"\n```\n\nDocker (full):\n```bash\ndocker pull hlohaus789\u002Fg4f\ndocker run -p 8080:8080 -p 7900:7900 \\\n  --shm-size=\"2g\" \\\n  -v ${PWD}\u002Fhar_and_cookies:\u002Fapp\u002Fhar_and_cookies \\\n  -v ${PWD}\u002Fgenerated_media:\u002Fapp\u002Fgenerated_media \\\n  hlohaus789\u002Fg4f:latest\n```\n\nDocker (slim):\n```bash\ndocker run -p 1337:8080 -p 8080:8080 \\\n  -v ${PWD}\u002Fhar_and_cookies:\u002Fapp\u002Fhar_and_cookies \\\n  -v ${PWD}\u002Fgenerated_media:\u002Fapp\u002Fgenerated_media \\\n  hlohaus789\u002Fg4f:latest-slim\n```\n\nPython usage patterns:\n- `client.chat.completions.create(...)`\n- `client.images.generate(...)`\n- Async variants via `AsyncClient`\n\nDocs & deeper reading\n- Full docs: https:\u002F\u002Fg4f.dev\u002Fdocs  \n- Client API docs: https:\u002F\u002Fg4f.dev\u002Fdocs\u002Fclient  \n- Async client docs: https:\u002F\u002Fg4f.dev\u002Fdocs\u002Fasync_client  \n- Provider guides: https:\u002F\u002Fg4f.dev\u002Fdocs\u002Fguides  \n- Local inference: https:\u002F\u002Fg4f.dev\u002Fdocs\u002Flocal\n\n---\n\nThank you for using and contributing to GPT4Free — together we make powerful AI tooling accessible, flexible, and community-driven.\n","# GPT4Free (g4f)\n\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fg4f)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fg4f) [![Docker Hub](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocker-hlohaus789%2Fg4f-blue)](https:\u002F\u002Fhub.docker.com\u002Fr\u002Fhlohaus789\u002Fg4f) [![License: GPL v3](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-GPLv3-red.svg)](https:\u002F\u002Fwww.gnu.org\u002Flicenses\u002Fgpl-3.0.txt) [![PyPI Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxtekky_gpt4free_readme_3399f9c984ec.png)](https:\u002F\u002Fpepy.tech\u002Fprojects\u002Fg4f)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxtekky_gpt4free_readme_5898d2a96c13.png\" alt=\"GPT4Free logo\" height=\"200\" \u002F>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cspan style=\"background: linear-gradient(45deg, #12c2e9, #c471ed, #f64f59); -webkit-background-clip: text; -webkit-text-fill-color: transparent;\">\n    \u003Cstrong>由 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fxtekky\">@xtekky\u003C\u002Fa> 创建，\u003Cbr> 由 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fhlohaus\">@hlohaus\u003C\u002Fa> 维护\u003C\u002Fstrong>\n  \u003C\u002Fspan>\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n\u003Cspan>欢迎通过\u003C\u002Fspan>\n      \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsponsors\u002Fhlohaus\" target=\"_blank\" rel=\"noopener noreferrer\">\n        GitHub Sponsors\n      \u003C\u002Fa>\n      ❤️\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n实时演示与文档：https:\u002F\u002Fg4f.dev | 文档：https:\u002F\u002Fg4f.dev\u002Fdocs\n\u003C\u002Fp>\n\n---\n\nGPT4Free (g4f) 是一个社区驱动的项目，汇集了多个易于访问的提供商和接口，旨在让使用现代 LLM 和媒体生成模型更加简单灵活。GPT4Free 的目标是提供多提供商支持、本地 GUI、兼容 OpenAI 的 REST API，以及便捷的 Python 和 JavaScript 客户端——所有这些都遵循社区优先的许可协议。\n\n本 README 是一份整合、改进且完整的指南，用于安装、运行和参与 GPT4Free 的开发。\n\n目录\n- [包含的内容](#whats-included)\n- [快速链接](#quick-links)\n- [要求与兼容性](#requirements--compatibility)\n- [安装](#installation)\n  - [Docker（推荐）](#docker-recommended)\n  - [精简 Docker 镜像](#slim-docker-image)\n  - [Windows (.exe)](#windows-exe)\n  - [Python（pip \u002F 源码安装 \u002F 部分安装）](#python-pip--from-source--partial-installs)\n- [运行应用](#running-the-app)\n  - [GUI（Web 客户端）](#gui-web-client)\n  - [FastAPI \u002F 干预 API](#fastapi--interference-api)\n  - [命令行界面](#cli)\n  - [可选的提供商登录（容器内的桌面）](#optional-provider-login-desktop-in-container)\n- [使用 Python 客户端](#using-the-python-client)\n  - [同步文本示例](#synchronous-text-example)\n  - [图像生成示例](#image-generation-example)\n  - [异步客户端示例](#async-client-example)\n- [使用 GPT4Free.js（浏览器 JS 客户端）](#using-gpt4freejs-browser-js-client)\n- [提供商与模型（概述）](#providers--models-overview)\n- [本地推理与媒体](#local-inference--media)\n- [配置与定制](#configuration--customization)\n- [在智能手机上运行](#running-on-smartphone)\n- [干预 API（兼容 OpenAI）](#interference-api-openai-compatible)\n- [示例与常见模式](#examples--common-patterns)\n- [贡献](#contributing)\n  - [如何创建新的提供商](#how-to-create-a-new-provider)\n  - [AI 如何帮助你编写代码](#how-ai-can-help-you-write-code)\n- [安全、隐私与下架政策](#security-privacy--takedown-policy)\n- [致谢、贡献者与署名](#credits-contributors--attribution)\n- [技术支持亮点](#powered-by-highlights)\n- [变更日志与发布](#changelog--releases)\n- [宣言 \u002F 项目原则](#manifesto--project-principles)\n- [许可证](#license)\n- [联系与赞助](#contact--sponsorship)\n- [附录：快速命令与示例](#appendix-quick-commands--examples)\n\n---\n\n## 包含的内容\n- Python 客户端库和异步客户端。\n- 可选的本地 Web GUI。\n- 基于 FastAPI 的兼容 OpenAI 的 API（干预 API）。\n- 官方浏览器 JS 客户端（g4f.dev 发布版）。\n- Docker 镜像（完整版和精简版）。\n- 多提供商适配器（LLM、媒体提供商、本地推理后端）。\n- 用于图像\u002F音频\u002F视频生成及媒体持久化的工具。\n\n---\n\n## 快速链接\n- 官网与文档：https:\u002F\u002Fg4f.dev | https:\u002F\u002Fg4f.dev\u002Fdocs  \n- PyPI：https:\u002F\u002Fpypi.org\u002Fproject\u002Fg4f  \n- Docker 镜像：https:\u002F\u002Fhub.docker.com\u002Fr\u002Fhlohaus789\u002Fg4f  \n- 发布版本：https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Freleases  \n- 问题追踪：https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fissues  \n- 社区：Telegram（https:\u002F\u002Ftelegram.me\u002Fg4f_channel）· Discord 新闻（https:\u002F\u002Fdiscord.gg\u002F5E39JUWUFa）· Discord 支持（https:\u002F\u002Fdiscord.gg\u002FqXA4Wf4Fsm）\n\n---\n\n## 要求与兼容性\n- 推荐使用 Python 3.10 或更高版本。\n- 对于使用浏览器自动化技术的提供商，需要 Google Chrome\u002FChromium。\n- 使用 Docker 进行容器化部署。\n- 支持 x86_64 和 arm64 架构（精简镜像同时支持两者）。\n- 部分提供商适配器可能需要特定平台的工具（如 Chrome\u002FChromium 等），详情请参阅相应提供商的文档。\n\n---\n\n## 安装\n\n### Docker（推荐）\n1. 安装 Docker：https:\u002F\u002Fdocs.docker.com\u002Fget-docker\u002F\n2. 创建持久化目录：\n   - 示例（Linux\u002FmacOS）：\n     ```bash\n     mkdir -p ${PWD}\u002Fhar_and_cookies ${PWD}\u002Fgenerated_media\n     sudo chown -R 1200:1201 ${PWD}\u002Fhar_and_cookies ${PWD}\u002Fgenerated_media\n     ```\n3. 拉取镜像：\n   ```bash\n   docker pull hlohaus789\u002Fg4f\n   ```\n4. 运行容器：\n   ```bash\n   docker run -p 8080:8080 -p 7900:7900 \\\n     --shm-size=\"2g\" \\\n     -v ${PWD}\u002Fhar_and_cookies:\u002Fapp\u002Fhar_and_cookies \\\n     -v ${PWD}\u002Fgenerated_media:\u002Fapp\u002Fgenerated_media \\\n     hlohaus789\u002Fg4f:latest\n   ```\n注意事项：\n- 端口 8080 提供 GUI\u002FAPI 服务；7900 可用于暴露类似 VNC 的桌面，以进行提供商登录（可选）。\n- 对于较重的浏览器自动化任务，可适当增加 --shm-size 参数。\n\n### 精简 Docker 镜像（x64 和 arm64）\n```bash\nmkdir -p ${PWD}\u002Fhar_and_cookies ${PWD}\u002Fgenerated_media\nchown -R 1000:1000 ${PWD}\u002Fhar_and_cookies ${PWD}\u002Fgenerated_media\n\ndocker run \\\n  -p 1337:8080 -p 8080:8080 \\\n  -v ${PWD}\u002Fhar_and_cookies:\u002Fapp\u002Fhar_and_cookies \\\n  -v ${PWD}\u002Fgenerated_media:\u002Fapp\u002Fgenerated_media \\\n  hlohaus789\u002Fg4f:latest-slim\n```\n注意事项：\n- 精简镜像可以在启动时更新 g4f 包，并根据需要安装额外的依赖项。\n- 在此示例中，干预 API 映射到了 1337 端口。\n\n### Windows 指南 (.exe)\n\n👉 请查看 GPT4Free 的 Windows 启动器：  \n🔗 [https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe) 🚀  \n\n1. 从以下链接下载发布文件 `g4f.exe.zip`：\n   https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Freleases\u002Flatest\n2. 解压并运行 `g4f.exe`。\n3. 打开 GUI：http:\u002F\u002Flocalhost:8080\u002Fchat\u002F\n4. 如果 Windows 防火墙阻止访问，请允许该应用程序。\n\n### Python 安装（通过 pip \u002F 从源码安装 \u002F 部分安装）\n\n先决条件：\n- Python 3.10+（https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F）\n- 某些提供商需要 Chrome\u002FChromium。\n\n从 PyPI 安装（推荐）：\n```bash\npip install -U g4f[all]\n```\n\n部分安装\n- 若要仅安装特定功能，请使用可选的 extras 组。详情请参阅项目文档中的 docs\u002Frequirements.md。\n\n从源码安装：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free.git\ncd gpt4free\npip install -r requirements.txt\npip install -e .\n```\n\n注意事项：\n- 某些功能需要 Chrome\u002FChromium 或其他工具；请遵循各提供商的专用文档。\n\n---\n\n## 运行应用\n\n### GUI（Web 客户端）\n- 通过 Python 运行：\n```python\nfrom g4f.gui import run_gui\nrun_gui()\n```\n- 或者通过命令行：\n```bash\npython -m g4f.cli gui --port 8080 --debug\n```\n- 打开：http:\u002F\u002Flocalhost:8080\u002Fchat\u002F\n\n### FastAPI \u002F 干预 API\n- 启动 FastAPI 服务器：\n```bash\npython -m g4f --port 8080 --debug\n```\n- 如果使用精简 Docker 映射，干预 API 可能在 `http:\u002F\u002Flocalhost:1337\u002Fv1` 提供。\n- Swagger UI：`http:\u002F\u002Flocalhost:1337\u002Fdocs`\n\n### 命令行\n- 启动 GUI 服务器：\n```bash\npython -m g4f.cli gui --port 8080 --debug\n```\n\n### MCP 服务器\nGPT4Free 现在包含一个模型上下文协议（MCP）服务器，允许像 Claude 这样的 AI 助手访问网络搜索、网页抓取和图像生成功能。\n\n**启动 MCP 服务器（stdio 模式）：**\n```bash\n# 使用 g4f 命令\ng4f mcp\n\n# 或使用 Python 模块\npython -m g4f.mcp\n```\n\n**启动 MCP 服务器（HTTP 模式）：**\n```bash\n# 在端口 8765 上启动 HTTP 服务器\ng4f mcp --http --port 8765\n\n# 自定义主机和端口\ng4f mcp --http --host 127.0.0.1 --port 3000\n```\n\nHTTP 模式提供：\n- `POST http:\u002F\u002Flocalhost:8765\u002Fmcp` - JSON-RPC 端点\n- `GET http:\u002F\u002Flocalhost:8765\u002Fhealth` - 健康检查\n\n**使用 Claude Desktop 配置：**\n\n将以下内容添加到你的 `claude_desktop_config.json`：\n```json\n{\n  \"mcpServers\": {\n    \"gpt4free\": {\n      \"command\": \"python\",\n      \"args\": [\"-m\", \"g4f.mcp\"]\n    }\n  }\n}\n```\n\n**可用的 MCP 工具：**\n- `web_search` - 使用 DuckDuckGo 搜索网络\n- `web_scrape` - 从网页中提取文本内容\n- `image_generation` - 根据文本提示生成图像\n\n有关 MCP 的详细文档，请参阅 [g4f\u002Fmcp\u002FREADME.md](g4f\u002Fmcp\u002FREADME.md)。\n\n### 可选的提供商登录（容器内的桌面）\n- 可通过以下地址访问：\n  ```\n  http:\u002F\u002Flocalhost:7900\u002F?autoconnect=1&resize=scale&password=secret\n  ```\n- 对于登录基于 Web 的提供商以获取 Cookie\u002FHAR 文件非常有用。\n\n---\n\n## 使用 Python 客户端\n\n安装：\n```bash\npip install -U g4f[all]\n```\n\n同步文本示例：\n```python\nfrom g4f.client import Client\n\nclient = Client()\nresponse = client.chat.completions.create(\n    model=\"gpt-4o-mini\",\n    messages=[{\"role\": \"user\", \"content\": \"你好，最近怎么样？\"}],\n    web_search=False\n)\nprint(response.choices[0].message.content)\n```\n\n预期输出：\n```\n你好！今天有什么可以帮您的吗？\n```\n\n图像生成示例：\n```python\nfrom g4f.client import Client\n\nclient = Client()\nresponse = client.images.generate(\n    model=\"flux\",\n    prompt=\"一只白色的暹罗猫\",\n    response_format=\"url\"\n)\nprint(f\"生成的图像 URL：{response.data[0].url}\")\n```\n\n异步客户端示例：\n```python\nfrom g4f.client import AsyncClient\nimport asyncio\n\nasync def main():\n    client = AsyncClient()\n    response = await client.chat.completions.create(\n        model=\"gpt-4o-mini\",\n        messages=[{\"role\": \"user\", \"content\": \"请简要解释一下量子计算\"}],\n    )\n    print(response.choices[0].message.content)\n\nasyncio.run(main())\n```\n\n注意事项：\n- 请参阅完整的 API 参考，了解流式传输、工具调用模式以及高级选项：https:\u002F\u002Fg4f.dev\u002Fdocs\u002Fclient\n\n---\n\n## 使用 GPT4Free.js（浏览器 JS 客户端）\n在浏览器中使用官方 JS 客户端——无需后端。\n\n示例：\n```html\n\u003Cscript type=\"module\">\n  import Client from 'https:\u002F\u002Fg4f.dev\u002Fdist\u002Fjs\u002Fclient.js';\n\n  const client = new Client();\n  const result = await client.chat.completions.create({\n      model: 'gpt-4.1',  \u002F\u002F 或 \"gpt-4o\"、\"deepseek-v3\" 等\n      messages: [{ role: 'user', content: '请解释一下量子计算' }]\n  });\n  console.log(result.choices[0].message.content);\n\u003C\u002Fscript>\n```\n\n注意事项：\n- JS 客户端通过 g4f.dev CDN 分发，便于使用。请查看 CORS 相关注意事项及使用限制。\n\n---\n\n## 提供商与模型（概述）\n- GPT4Free 集成了众多提供商，包括但不限于兼容 OpenAI 的端点、PerplexityLabs、Gemini、MetaAI、Pollinations（媒体）以及本地推理后端。\n- 模型的可用性和行为取决于提供商的能力。有关当前支持的提供商和模型列表，请参阅提供商文档：https:\u002F\u002Fg4f.dev\u002Fdocs\u002Fproviders-and-models\n\n提供商要求可能包括：\n- API 密钥或令牌（用于认证提供商）\n- 浏览器 Cookie \u002F HAR 文件（用于通过浏览器自动化抓取的提供商）\n- Chrome\u002FChromium 或无头浏览器工具\n- 本地模型二进制文件和运行时环境（用于本地推理）\n\n---\n\n## 本地推理与媒体\n- GPT4Free 支持本地推理后端。有关支持的运行时和硬件指导，请参阅 [docs\u002Flocal.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Flocal.md)。\n- 媒体生成（图像、音频、视频）可通过提供商实现（例如 Pollinations）。有关格式、选项和使用示例，请参阅 [docs\u002Fmedia.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Fmedia.md)。\n\n---\n\n## 配置与定制\n- 可通过环境变量、CLI 标志或配置文件进行配置。详情请参阅 [docs\u002Fconfig.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Fconfig.md)。\n- 为减小安装体积，可使用部分依赖组。详情请参阅 [docs\u002Frequirements.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Frequirements.md)。\n- 提供商选择：了解如何设置默认值以及按请求覆盖，请参阅 [docs\u002Fselecting_a_provider.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Fselecting_a_provider.md)。\n- 持久化：HAR 文件、Cookie 和生成的媒体会保存在映射目录中（例如 har_and_cookies、generated_media）。\n\n---\n\n## 在智能手机上运行\n- Web GUI 具有响应式设计，可以通过手机访问，只需访问你的主机 IP:8080 或通过隧道访问。详情请参阅 [docs\u002Fguides\u002Fphone.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Fguides\u002Fphone.md)。\n\n---\n\n## 干预 API（兼容 OpenAI）\n- 干预 API 能够实现通过 GPT4Free 提供商选择路由的类似 OpenAI 的工作流。\n- 文档：[docs\u002Finterference-api.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Finterference-api.md)\n- 默认端点（示例精简 Docker）：`http:\u002F\u002Flocalhost:1337\u002Fv1`\n- Swagger UI：`http:\u002F\u002Flocalhost:1337\u002Fdocs`\n\n---\n\n## 示例与常见模式\n- 流式完成、停止条件、系统消息以及工具调用模式的文档如下：\n  - [docs\u002Fclient.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Fclient.md)\n  - [docs\u002Fasync_client.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Fasync_client.md)\n  - [docs\u002Frequests.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Frequests.md)\n- 集成（LangChain、PydanticAI）：[docs\u002Fpydantic_ai.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Fpydantic_ai.md)\n- 旧版示例：[docs\u002Flegacy.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Flegacy.md)\n\n---\n\n## 贡献\n我们欢迎各种形式的贡献——新的提供商、功能、文档和修复都将受到高度赞赏。\n\n如何贡献：\n1. 克隆并分支仓库。\n2. 为您的更改创建一个新分支。\n3. 运行测试和代码检查工具。\n4. 提交带有清晰描述及必要测试或示例的拉取请求。\n\n仓库地址：https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\n\n### 如何创建一个新的提供商\n- 请阅读指南：[docs\u002Fguides\u002Fcreate_provider.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Fguides\u002Fcreate_provider.md)\n- 一般步骤如下：\n  - 在 `g4f\u002FProvider\u002F` 目录下实现一个提供商适配器。\n  - 添加配置说明和依赖项注释。\n  - 包含测试用例和使用示例。\n  - 尊重第三方代码的许可协议，并正确注明出处。\n\n### AI 如何帮助您编写代码\n- 请参阅：[docs\u002Fguides\u002Fhelp_me.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Fguides\u002Fhelp_me.md)，其中提供了加速开发的提示模板和工作流程。\n\n---\n\n## 安全、隐私与下架政策\n- 请勿存储或分享敏感凭据。请遵循各提供商推荐的安全实践。\n- 如果您的网站出现在本项目的链接中，且希望将其移除，请向 takedown@g4f.ai 发送所有权证明，我们将尽快处理。\n- 对于生产环境，请通过 HTTPS、身份验证和防火墙规则保护服务器安全。限制对提供商凭据以及 Cookie\u002FHAR 文件存储的访问权限。\n\n---\n\n## 致谢、贡献者与署名\n- 核心创建者：[@xtekky](https:\u002F\u002Fgithub.com\u002Fxtekky)（原作者），由 [@hlohaus](https:\u002F\u002Fgithub.com\u002Fhlohaus) 维护。\n- 完整贡献者图谱：https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fgraphs\u002Fcontributors\n- 值得一提的代码贡献及署名来源：\n  - `har_file.py` — 来自 [xqdoo00o\u002FChatGPT-to-API](https:\u002F\u002Fgithub.com\u002Fxqdoo00o\u002FChatGPT-to-API)\n  - `PerplexityLabs.py` — 来自 [nathanrchn\u002Fperplexityai](https:\u002F\u002Fgithub.com\u002Fnathanrchn\u002Fperplexityai)\n  - `Gemini.py` — 来自 [dsdanielpark\u002FGemini-API](https:\u002F\u002Fgithub.com\u002Fdsdanielpark\u002FGemini-API) 和 [HanaokaYuzu\u002FGemini-API](https:\u002F\u002Fgithub.com\u002FHanaokaYuzu\u002FGemini-API)\n  - `MetaAI.py` — 灵感来源于 [Strvm 的 meta-ai-api](https:\u002F\u002Fgithub.com\u002FStrvm\u002Fmeta-ai-api)\n  - `proofofwork.py` — 来自 [missuo\u002FFreeGPT35](https:\u002F\u002Fgithub.com\u002Fmissuo\u002FFreeGPT35)\n\n此外，还有许多其他贡献者在仓库中被特别提及。\n\n---\n\n## 技术支持项目亮点\n- Pollinations AI — 生成式媒体：https:\u002F\u002Fgithub.com\u002Fpollinations\u002Fpollinations\n- MoneyPrinter V2 — 使用 GPT4Free 的示例项目：https:\u002F\u002Fgithub.com\u002FFujiwaraChoki\u002FMoneyPrinterV2\n- 关于使用 GPT4Free 的完整项目和站点列表，请参阅：[docs\u002Fpowered-by.md](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.dev\u002Fblob\u002Fmain\u002Fdocs\u002Fpowered-by.md)\n\n---\n\n## 更改记录与发布版本\n- 发布版本及完整更改记录：https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Freleases\n- 订阅 Discord 或 Telegram 以获取最新公告。\n\n---\n\n## 宣言 \u002F 项目原则\nGPT4Free 以社区原则为指导：\n1. 开放获取人工智能工具和模型。\n2. 各提供商及项目之间的协作。\n3. 反对限制创造力的垄断性封闭系统。\n4. 以社区为中心的开发，促进人工智能技术的广泛普及。\n5. 推动创新、创造性和可及性。\n\nhttps:\u002F\u002Fg4f.dev\u002Fmanifest\n\n---\n\n## 许可证\n本程序采用 GNU 通用公共许可证 v3.0（GPLv3）授权。完整许可证内容请参见：https:\u002F\u002Fwww.gnu.org\u002Flicenses\u002Fgpl-3.0.txt\n\n简要说明：\n- 您可以根据 GPLv3 的条款重新分发和\u002F或修改本程序。\n- 本程序“按原样”提供，不附带任何担保。\n\n版权声明：\n```\nxtekky\u002Fgpt4free: 版权所有 © 2025 xtekky\n\n本程序是自由软件：您可以根据自由软件基金会发布的 GNU 通用公共许可证的条款重新分发或修改它，无论是第 3 版还是之后的任何版本（由您选择）。\n\n本程序旨在为您提供便利，但不提供任何形式的担保，包括对适销性或特定用途适用性的隐含担保。有关详细信息，请参阅 GNU 通用公共许可证。\n```\n\n---\n\n## 联系方式与赞助\n- 维护者：https:\u002F\u002Fgithub.com\u002Fhlohaus  \n- 赞助：https:\u002F\u002Fgithub.com\u002Fsponsors\u002Fhlohaus  \n- 问题与功能请求：https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fissues  \n- 下架请求：takedown@g4f.ai\n\n---\n\n## 附录：快速命令与示例\n\n安装（pip）：\n```bash\npip install -U g4f[all]\n```\n\n运行 GUI（Python）：\n```bash\npython -m g4f.cli gui --port 8080 --debug\n# 或\npython -c \"from g4f.gui import run_gui; run_gui()\"\n```\n\nDocker（完整版）：\n```bash\ndocker pull hlohaus789\u002Fg4f\ndocker run -p 8080:8080 -p 7900:7900 \\\n  --shm-size=\"2g\" \\\n  -v ${PWD}\u002Fhar_and_cookies:\u002Fapp\u002Fhar_and_cookies \\\n  -v ${PWD}\u002Fgenerated_media:\u002Fapp\u002Fgenerated_media \\\n  hlohaus789\u002Fg4f:latest\n```\n\nDocker（精简版）：\n```bash\ndocker run -p 1337:8080 -p 8080:8080 \\\n  -v ${PWD}\u002Fhar_and_cookies:\u002Fapp\u002Fhar_and_cookies \\\n  -v ${PWD}\u002Fgenerated_media:\u002Fapp\u002Fgenerated_media \\\n  hlohaus789\u002Fg4f:latest-slim\n```\n\nPython 使用模式：\n- `client.chat.completions.create(...)`\n- `client.images.generate(...)`\n- 异步变体可通过 `AsyncClient` 实现。\n\n文档与深入阅读\n- 完整文档：https:\u002F\u002Fg4f.dev\u002Fdocs  \n- 客户端 API 文档：https:\u002F\u002Fg4f.dev\u002Fdocs\u002Fclient  \n- 异步客户端文档：https:\u002F\u002Fg4f.dev\u002Fdocs\u002Fasync_client  \n- 提供商指南：https:\u002F\u002Fg4f.dev\u002Fdocs\u002Fguides  \n- 本地推理：https:\u002F\u002Fg4f.dev\u002Fdocs\u002Flocal\n\n---\n\n感谢您使用并为 GPT4Free 做出贡献——让我们携手共建一个开放、灵活且以社区驱动的强大 AI 工具平台。","# GPT4Free (g4f) 快速上手指南\n\nGPT4Free 是一个社区驱动的项目，旨在聚合多种可用的 LLM 和媒体生成模型提供商，提供统一的 Python\u002FJS 客户端、本地 Web GUI 以及兼容 OpenAI 的 API 接口。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Linux, macOS, Windows (x86_64 或 arm64)。\n*   **Python 版本**：推荐 Python 3.10 或更高版本。\n*   **浏览器依赖**：部分提供商需要 Google Chrome 或 Chromium 以支持浏览器自动化。\n*   **容器化（可选）**：若使用 Docker 部署，需安装 Docker Engine。\n\n> **提示**：国内用户若遇到 PyPI 下载缓慢问题，可使用清华或阿里镜像源加速安装。\n\n## 安装步骤\n\n您可以选择以下任意一种方式进行安装：\n\n### 方式一：Python pip 安装（推荐）\n\n直接使用 pip 安装完整功能包：\n\n```bash\npip install -U g4f[all] -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n若需从源码安装：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free.git\ncd gpt4free\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\npip install -e .\n```\n\n### 方式二：Docker 部署（推荐用于生产环境）\n\n1. 创建持久化目录并设置权限：\n   ```bash\n   mkdir -p ${PWD}\u002Fhar_and_cookies ${PWD}\u002Fgenerated_media\n   sudo chown -R 1200:1201 ${PWD}\u002Fhar_and_cookies ${PWD}\u002Fgenerated_media\n   ```\n\n2. 拉取并运行容器：\n   ```bash\n   docker pull hlohaus789\u002Fg4f\n   docker run -p 8080:8080 -p 7900:7900 \\\n     --shm-size=\"2g\" \\\n     -v ${PWD}\u002Fhar_and_cookies:\u002Fapp\u002Fhar_and_cookies \\\n     -v ${PWD}\u002Fgenerated_media:\u002Fapp\u002Fgenerated_media \\\n     hlohaus789\u002Fg4f:latest\n   ```\n\n### 方式三：Windows 免安装版\n\n1. 从 [Releases 页面](https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Freleases\u002Flatest) 下载 `g4f.exe.zip`。\n2. 解压后双击运行 `g4f.exe`。\n3. 若被防火墙拦截，请在弹窗中允许访问。\n\n## 基本使用\n\n安装完成后，您可以通过以下三种方式使用 GPT4Free。\n\n### 1. 启动 Web GUI 界面\n\n最简单的方式是启动内置的网页聊天界面：\n\n**通过命令行启动：**\n```bash\npython -m g4f.cli gui --port 8080\n```\n\n**或通过 Python 代码启动：**\n```python\nfrom g4f.gui import run_gui\nrun_gui()\n```\n\n启动后，在浏览器访问：`http:\u002F\u002Flocalhost:8080\u002Fchat\u002F`\n\n### 2. Python 客户端调用\n\n创建一个 Python 脚本（例如 `test.py`），输入以下代码即可调用大模型：\n\n```python\nfrom g4f.client import Client\n\nclient = Client()\nresponse = client.chat.completions.create(\n    model=\"gpt-4o-mini\",\n    messages=[{\"role\": \"user\", \"content\": \"你好，请介绍一下你自己\"}],\n    web_search=False\n)\nprint(response.choices[0].message.content)\n```\n\n**生成图片示例：**\n```python\nfrom g4f.client import Client\n\nclient = Client()\nresponse = client.images.generate(\n    model=\"flux\",\n    prompt=\"a white siamese cat\",\n    response_format=\"url\"\n)\nprint(f\"Generated image URL: {response.data[0].url}\")\n```\n\n### 3. 浏览器 JS 客户端调用\n\n无需后端，直接在 HTML 文件中引入官方 JS 客户端：\n\n```html\n\u003Cscript type=\"module\">\n  import Client from 'https:\u002F\u002Fg4f.dev\u002Fdist\u002Fjs\u002Fclient.js';\n\n  const client = new Client();\n  const result = await client.chat.completions.create({\n      model: 'gpt-4.1',\n      messages: [{ role: 'user', content: '用中文解释量子计算' }]\n  });\n  console.log(result.choices[0].message.content);\n\u003C\u002Fscript>\n```\n\n### 4. 开启 OpenAI 兼容 API\n\n若需让其他应用（如 NextChat, OneAPI）接入，可启动 FastAPI 服务：\n\n```bash\npython -m g4f --port 8080\n```\n\nAPI 端点地址为：`http:\u002F\u002Flocalhost:8080\u002Fv1`\nSwagger 文档地址：`http:\u002F\u002Flocalhost:8080\u002Fdocs`","某初创团队的数据分析师需要快速构建一个多模型对比测试脚本，以评估不同大语言模型在特定垂直领域问答中的表现，但团队预算有限且无法承担高昂的 API 费用。\n\n### 没有 gpt4free 时\n- **成本门槛高**：调用 GPT-4、Claude Opus 等顶尖模型需预付高额订阅费或按量计费，导致测试预算迅速耗尽。\n- **接入流程繁琐**：每个模型提供商都有独立的注册、鉴权和 SDK 配置流程，开发人员需花费大量时间处理兼容性代码。\n- **模型切换困难**：若要对比不同模型的输出效果，必须重写请求逻辑或维护多套代码分支，效率极低。\n- **资源受限**：个人开发者或小型团队难以获得多个高端模型的访问权限，只能局限于免费但能力较弱的模型进行实验。\n\n### 使用 gpt4free 后\n- **零成本调用**：通过 gpt4free 聚合的免费提供者接口，无需信用卡即可直接调用 GPT-5.3、Opus 4.6 等最新模型进行大规模测试。\n- **统一接口标准**：利用其 OpenAI 兼容的 API 或 Python 客户端，只需修改一行代码中的模型名称参数，即可在不同大模型间无缝切换。\n- **开发效率倍增**：内置的异步客户端和标准化响应格式，让团队在半天内就完成了原本需要数天的多模型并行测试脚本。\n- **灵活部署**：支持 Docker 一键部署本地 GUI 或服务端，团队成员可在内网环境中直接共享模型访问能力，无需各自配置环境。\n\ngpt4free 通过聚合多方免费算力与统一接口标准，让资源有限的团队也能平等地享受顶级 AI 模型的创新能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxtekky_gpt4free_5898d2a9.png","xtekky","Tekky","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fxtekky_06e306d8.png","I code a bit for fun. I like llm's","@onlpx, @onlpsec, @gpt4free","Europe",null,"t.me\u002Fxtekky","https:\u002F\u002Fgithub.com\u002Fxtekky",[85,89,93,96,100],{"name":86,"color":87,"percentage":88},"Python","#3572A5",98,{"name":90,"color":91,"percentage":92},"Shell","#89e051",0.8,{"name":94,"color":95,"percentage":92},"HTML","#e34c26",{"name":97,"color":98,"percentage":99},"JavaScript","#f1e05a",0.3,{"name":101,"color":102,"percentage":103},"Dockerfile","#384d54",0.1,65970,13639,"2026-04-04T01:02:03","GPL-3.0","Linux, macOS, Windows","非必需（仅在使用本地推理后端时可能需要，具体取决于所选模型）","未说明（Docker 容器运行建议增加共享内存 --shm-size=\"2g\" 以支持浏览器自动化）",{"notes":112,"python":113,"dependencies":114},"该工具主要作为聚合多个免费 LLM 提供商的客户端，默认无需本地 GPU 即可运行。若使用需要浏览器自动化的提供商，必须安装 Google Chrome 或 Chromium。Docker 部署为推荐方式，支持 x86_64 和 arm64 架构。若启用本地推理功能，需参考单独的文档配置相应的运行时和硬件。","3.10+",[115,116,117,118,119],"fastapi","uvicorn","requests","curl_cffi","browser automation tools (Chrome\u002FChromium)",[53,26,15],[122,123,124,125,126,127,128,129,130,131,132,133,134,135,136,137,138,139,140,141],"chatgpt","chatgpt-4","chatgpt4","gpt","gpt-4","gpt4","gpt4-api","openai","openai-api","openai-chatgpt","chatbot","chatbots","chatgpt-api","language-model","reverse-engineering","chatgpt-free","deepseek","deepseek-api","deepseek-r1","gpt-4o",21,"2026-03-27T02:49:30.150509","2026-04-06T02:42:45.161548",[146,151,156,161,166],{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},14152,"遇到 OpenaiChat 提示 MissingAuthError 错误怎么办？","该错误表示缺少认证信息。解决方法是添加 \"api_key\" 或者提供 .har 文件进行认证。.har 文件可以通过浏览器开发者工具的网络面板录制登录过程获取，用于模拟已登录状态。","https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fissues\u002F2092",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},14153,"在 iSH (Alpine Linux) 上安装 curl_cffi 遇到架构不支持错误如何解决？","在 iSH 等模拟器环境中直接编译 curl_cffi 可能会因架构问题失败。建议的替代方案是：1. 对于快速测试，可以使用修改版的 duckduckgo-search 包并改用 httpx 库；2. 对于生产环境或严肃用途，建议直接使用 Groq 等付费服务以避免兼容性问题。","https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fissues\u002F2098",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},14154,"使用 .har 文件认证时出现 token_expired (令牌过期) 错误如何处理？","当 .har 文件中的认证令牌过期时，会导致 401 错误。维护者已通过添加 \"proofofwork\" (工作证明) 机制修复了此问题（参考 PR #1907）。请确保将 gpt4free 库更新到包含此修复的最新版本，即可实现自动处理或延长令牌有效期，无需频繁手动更新 .har 文件。","https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fissues\u002F1795",{"id":162,"question_zh":163,"answer_zh":164,"source_url":165},14155,"如何在没有 API Key 的情况下免费使用 Google Gemini 模型？","可以通过以下两种方式实现：1. 安装并设置 `gemini-cli` 工具，然后在 gpt4free 中选择 \"GeminiCLI\" 作为提供者来免费使用 gemini-pro 模型；2. 关注社区开发的 AI Studio 中继项目（Relay），该项目通过模拟 Chrome 实例拦截请求将 Google AI Studio 暴露为 API（部分可能尚未开源或处于测试阶段）。","https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fissues\u002F1949",{"id":167,"question_zh":168,"answer_zh":169,"source_url":170},14156,"项目支持哪些可以逆向的网站或提供者？","项目旨在逆向无需 Cloudflare 严格拦截、支持 GPT-4\u002F联网、可传递对话历史且支持流式响应的网站。已知支持的站点包括：beta.character.ai, neuroflash.com, openprompt.co, sqlchat.ai, sincode.ai, open-assistant.io, freegpt.one, chat.pawan.krd, gptgo.ai, perplexity.ai 等。用户也可以在该项目的 Issue 中提交新的网站建议。","https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fissues\u002F40",[172,177,182,187,192,197,202,207,212,217,222,227,232,237,242,247,252,257,262,267],{"id":173,"version":174,"summary_zh":175,"released_at":176},80897,"v7.3.8","## 变更内容\n* 修复：修复了 Pin 8 的取消置顶操作；由 @dagecko 在 https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fpull\u002F3402 中将 2 处不安全的表达式提取为环境变量。\n* 改进：由 @3mora2 在 https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fpull\u002F3413 中优化了 LMArena 的认证、图片处理及 Cookie 管理。\n\n## 新贡献者\n* @dagecko 在 https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fpull\u002F3402 中完成了首次贡献。\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fcompare\u002Fv7.3.7...v7.3.8","2026-04-04T00:23:40",{"id":178,"version":179,"summary_zh":180,"released_at":181},80898,"v7.3.7","**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fcompare\u002Fv7.3.6...v7.3.7\n### 下载选项\n\n**Python 包:**\n- PyPI: `pip install g4f==v7.3.7`\n\n**可执行文件:**\n- Windows x64: `g4f-windows-v7.3.7-x64.zip`\n- Linux x64: `g4f-linux-v7.3.7-x64`\n- Linux ARM64: `g4f-linux-v7.3.7-arm64`\n- macOS x64: `g4f-macos-v7.3.7-x64`\n- macOS ARM64: `g4f-macos-v7.3.7-arm64`\n\n**系统包:**\n- WinGet: `winget install gpt4free`\n\n**Docker:**\n- `docker pull hlohaus789\u002Fg4f:v7.3.7`\n- `docker pull hlohaus789\u002Fg4f:v7.3.7-slim`\n\n💻 **在使用本版本的 .exe 时遇到问题吗？**  \n👉 请改用 GPT4Free 的 Windows 启动器：  \n🔗 [https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe) 🚀  \n","2026-04-03T17:10:47",{"id":183,"version":184,"summary_zh":185,"released_at":186},80899,"v7.3.6","## 变更内容\n* 修复（图片）：支持在上传中添加更多视频格式，由 @Lachine1 在 https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fpull\u002F3408 中完成\n* 修复（OperaAria）：实现真正的流式传输、文本与图片共存，并使上传错误可见，由 @yetval 在 https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fpull\u002F3410 中完成\n\n## 新贡献者\n* @Lachine1 在 https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fpull\u002F3408 中完成了首次贡献\n* @yetval 在 https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fpull\u002F3410 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fcompare\u002Fv7.3.5...v7.3.6\n### 下载选项\n\n**Python 包：**\n- PyPI：`pip install g4f==v7.3.6`\n\n**可执行文件：**\n- Windows x64：`g4f-windows-v7.3.6-x64.zip`\n- Linux x64：`g4f-linux-v7.3.6-x64`\n- Linux ARM64：`g4f-linux-v7.3.6-arm64`\n- macOS x64：`g4f-macos-v7.3.6-x64`\n- macOS ARM64：`g4f-macos-v7.3.6-arm64`\n\n**系统包：**\n- WinGet：`winget install gpt4free`\n\n**Docker：**\n- `docker pull hlohaus789\u002Fg4f:v7.3.6`\n- `docker pull hlohaus789\u002Fg4f:v7.3.6-slim`\n\n💻 **在使用本版本的 .exe 文件时遇到问题吗？**  \n👉 请改用 GPT4Free 的 Windows 启动器：  \n🔗 [https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe) 🚀","2026-04-03T12:08:56",{"id":188,"version":189,"summary_zh":190,"released_at":191},80900,"v7.3.5","\r\n#### openclaw 安装脚本\r\n\r\n使用附带的脚本：\n\n```bash\ncurl -fsSL https:\u002F\u002Fraw.githubusercontent.com\u002Fxtekky\u002Fgpt4free\u002Fmain\u002Fscripts\u002Fsetup-openclaw.sh | bash -s -- \u003CPOLLINATIONS_API_KEY>\n```\r\n\r\n**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fcompare\u002Fv7.3.4...v7.3.5\n### 下载选项\n\n**Python 包：**\n- PyPI: `pip install g4f==v7.3.5`\n\n**可执行文件：**\n- Windows x64: `g4f-windows-v7.3.5-x64.zip`\n- Linux x64: `g4f-linux-v7.3.5-x64`\n- Linux ARM64: `g4f-linux-v7.3.5-arm64`\n- macOS x64: `g4f-macos-v7.3.5-x64`\n- macOS ARM64: `g4f-macos-v7.3.5-arm64`\n\n**系统包：**\n- WinGet: `winget install gpt4free`\n\n**Docker：**\n- `docker pull hlohaus789\u002Fg4f:v7.3.5`\n- `docker pull hlohaus789\u002Fg4f:v7.3.5-slim`\n\n💻 **在使用此版本的 .exe 时遇到问题吗？**  \n👉 请改用 GPT4Free 的 Windows 启动器：  \n🔗 [https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe) 🚀  \n","2026-03-31T15:32:44",{"id":193,"version":194,"summary_zh":195,"released_at":196},80901,"v7.3.4","**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fcompare\u002Fv7.3.3...v7.3.4\n### 下载选项\n\n**Python 包:**\n- PyPI: `pip install g4f==v7.3.4`\n\n**可执行文件:**\n- Windows x64: `g4f-windows-v7.3.4-x64.zip`\n- Linux x64: `g4f-linux-v7.3.4-x64`\n- Linux ARM64: `g4f-linux-v7.3.4-arm64`\n- macOS x64: `g4f-macos-v7.3.4-x64`\n- macOS ARM64: `g4f-macos-v7.3.4-arm64`\n\n**系统包:**\n- WinGet: `winget install gpt4free`\n\n**Docker:**\n- `docker pull hlohaus789\u002Fg4f:v7.3.4`\n- `docker pull hlohaus789\u002Fg4f:v7.3.4-slim`\n\n💻 **在使用本版本的 .exe 文件时遇到问题吗？**  \n👉 请改用 GPT4Free 的 Windows 启动器：  \n🔗 [https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe) 🚀  \n","2026-03-21T20:39:14",{"id":198,"version":199,"summary_zh":200,"released_at":201},80902,"v7.3.3","## 变更内容\n* @Desel72 在 https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fpull\u002F3396 中为 Ollama 提供商添加了 get_quota 功能。\n* 特性：@octo-patch 在 https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fpull\u002F3391 中将 MiniMax 的默认模型升级为 M2.7。\n* @Copilot 在 https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fpull\u002F3394 中添加了基于 config.yaml 的自定义模型路由，并支持考虑配额的提供商选择。\n\n## 新贡献者\n* @Desel72 在 https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fpull\u002F3396 中完成了首次贡献。\n* @octo-patch 在 https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fpull\u002F3391 中完成了首次贡献。\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fcompare\u002Fv7.3.2...v7.3.3\n### 下载选项\n\n**Python 包：**\n- PyPI：`pip install g4f==v7.3.3`\n\n**可执行文件：**\n- Windows x64：`g4f-windows-v7.3.3-x64.zip`\n- Linux x64：`g4f-linux-v7.3.3-x64`\n- Linux ARM64：`g4f-linux-v7.3.3-arm64`\n- macOS x64：`g4f-macos-v7.3.3-x64`\n- macOS ARM64：`g4f-macos-v7.3.3-arm64`\n\n**系统包：**\n- WinGet：`winget install gpt4free`\n\n**Docker：**\n- `docker pull hlohaus789\u002Fg4f:v7.3.3`\n- `docker pull hlohaus789\u002Fg4f:v7.3.3-slim`\n\n💻 **在使用本版本的 .exe 文件时遇到问题吗？**  \n👉 请改用 GPT4Free 的 Windows 启动器：  \n🔗 [https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe) 🚀","2026-03-20T16:01:46",{"id":203,"version":204,"summary_zh":205,"released_at":206},80903,"v7.3.2","## 变更内容\n* 修复：禁用 Werkzeug 重载器，以消除 GUI 调试模式下的空闲 CPU 使用率，由 @Copilot 在 https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fpull\u002F3385 中完成\n* 修复：修复 `TypeError 'module' object is not subscriptable` 错误，该错误与 `--cookie-browsers` 参数相关，由 @Copilot 在 https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fpull\u002F3384 中完成\n* 修复 Docker slim 版本：处理旧版 `python -m g4f --port 8080` 调用方式，无需模式前缀，由 @Copilot 在 https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fpull\u002F3386 中完成\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fcompare\u002Fv7.3.1...v7.3.2\n### 下载选项\n\n**Python 包：**\n- PyPI：`pip install g4f==v7.3.2`\n\n**可执行文件：**\n- Windows x64：`g4f-windows-v7.3.2-x64.zip`\n- Linux x64：`g4f-linux-v7.3.2-x64`\n- Linux ARM64：`g4f-linux-v7.3.2-arm64`\n- macOS x64：`g4f-macos-v7.3.2-x64`\n- macOS ARM64：`g4f-macos-v7.3.2-arm64`\n\n**系统包：**\n- WinGet：`winget install gpt4free`\n\n**Docker：**\n- `docker pull hlohaus789\u002Fg4f:v7.3.2`\n- `docker pull hlohaus789\u002Fg4f:v7.3.2-slim`\n\n💻 **在使用此版本的 .exe 文件时遇到问题吗？**  \n👉 请改用 GPT4Free 的 Windows 启动器：  \n🔗 [https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe) 🚀","2026-03-13T18:13:01",{"id":208,"version":209,"summary_zh":210,"released_at":211},80904,"v7.3.1","**完整更新日志**：https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fcompare\u002Fv7.3.0...v7.3.1\n### 下载选项\n\n**Python 包：**\n- PyPI：`pip install g4f==v7.3.1`\n\n**可执行文件：**\n- Windows x64：`g4f-windows-v7.3.1-x64.zip`\n- Linux x64：`g4f-linux-v7.3.1-x64`\n- Linux ARM64：`g4f-linux-v7.3.1-arm64`\n- macOS x64：`g4f-macos-v7.3.1-x64`\n- macOS ARM64：`g4f-macos-v7.3.1-arm64`\n\n**系统包：**\n- WinGet：`winget install gpt4free`\n\n**Docker：**\n- `docker pull hlohaus789\u002Fg4f:v7.3.1`\n- `docker pull hlohaus789\u002Fg4f:v7.3.1-slim`\n\n💻 **在使用本版本的 .exe 文件时遇到问题吗？**  \n👉 请改用 GPT4Free 的 Windows 启动器：  \n🔗 [https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe) 🚀  \n","2026-03-13T01:51:00",{"id":213,"version":214,"summary_zh":215,"released_at":216},80905,"v7.3.0","## 变更内容\n* 修复：由 @haosenwang1018 在 https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fpull\u002F3367 中将 34 处裸 except 子句替换为 except Exception\n* 安全性：由 @Copilot 在 https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fpull\u002F3379 中修复了路径遍历、弱 RSA 密钥、访问控制失效以及 SSRF 漏洞\n\n## 新贡献者\n* @haosenwang1018 在 https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fpull\u002F3367 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fcompare\u002Fv7.2.5...v7.3.0\n\n#### *安全提示*\n\n1. *仅绑定到本地回环地址：*\n   - 现在可以通过将 API 绑定到 `127.0.0.1` 来将其限制为仅接受来自本地的请求。这可以防止外部客户端直接访问该 API。\n   - 示例命令：\n     ```bash\n     g4f api --bind \"127.0.0.1:8080\"\n     ```\n\n2. *设置 API 访问密码：*\n   - 现在可以通过环境变量设置密码来保护 API 的访问权限。\n   - 示例命令：\n     ```bash\n     export G4F_API_KEY=\"您的强密码\"\n     ```\n\n这些安全措施确保了 API 仅限于本地流量，并通过密码保护进一步增强了安全性。\n### 下载选项\n\n**Python 包：**\n- PyPI：`pip install g4f==v7.3.0`\n\n**可执行文件：**\n- Windows x64：`g4f-windows-v7.3.0-x64.zip`\n- Linux x64：`g4f-linux-v7.3.0-x64`\n- Linux ARM64：`g4f-linux-v7.3.0-arm64`\n- macOS x64：`g4f-macos-v7.3.0-x64`\n- macOS ARM64：`g4f-macos-v7.3.0-arm64`\n\n**系统包：**\n- WinGet：`winget install gpt4free`\n\n**Docker：**\n- `docker pull hlohaus789\u002Fg4f:v7.3.0`\n- `docker pull hlohaus789\u002Fg4f:v7.3.0-slim`\n\n💻 **是否遇到此版本 .exe 文件的问题？**  \n👉 请改用 GPT4Free 的 Windows 启动器：  \n🔗 [https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe) 🚀","2026-03-06T16:18:04",{"id":218,"version":219,"summary_zh":220,"released_at":221},80906,"v7.2.5","**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fcompare\u002Fv7.2.4...v7.2.5\n### 下载选项\n\n**Python 包:**\n- PyPI: `pip install g4f==v7.2.5`\n\n**可执行文件:**\n- Windows x64: `g4f-windows-v7.2.5-x64.zip`\n- Linux x64: `g4f-linux-v7.2.5-x64`\n- Linux ARM64: `g4f-linux-v7.2.5-arm64`\n- macOS x64: `g4f-macos-v7.2.5-x64`\n- macOS ARM64: `g4f-macos-v7.2.5-arm64`\n\n**系统包:**\n- WinGet: `winget install gpt4free`\n\n**Docker:**\n- `docker pull hlohaus789\u002Fg4f:v7.2.5`\n- `docker pull hlohaus789\u002Fg4f:v7.2.5-slim`\n\n💻 **在使用本版本的 .exe 时遇到问题吗？**  \n👉 请改用 GPT4Free 的 Windows 启动器：  \n🔗 [https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe) 🚀","2026-02-24T21:13:23",{"id":223,"version":224,"summary_zh":225,"released_at":226},80907,"v7.2.4","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fcompare\u002Fv7.2.3...v7.2.4\n### Download Options\n\n**Python Package:**\n- PyPI: `pip install g4f==v7.2.4`\n\n**Executables:**\n- Windows x64: `g4f-windows-v7.2.4-x64.zip`\n- Linux x64: `g4f-linux-v7.2.4-x64`\n- Linux ARM64: `g4f-linux-v7.2.4-arm64`\n- macOS x64: `g4f-macos-v7.2.4-x64`\n- macOS ARM64: `g4f-macos-v7.2.4-arm64`\n\n**System Packages:**\n- WinGet: `winget install gpt4free`\n\n**Docker:**\n- `docker pull hlohaus789\u002Fg4f:v7.2.4`\n- `docker pull hlohaus789\u002Fg4f:v7.2.4-slim`\n\n💻 **Having trouble with the .exe from this release?**  \n👉 Check out the Windows launcher for GPT4Free instead:  \n🔗 [https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe) 🚀  \n","2026-02-24T15:12:45",{"id":228,"version":229,"summary_zh":230,"released_at":231},80908,"v7.2.3","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fcompare\u002Fv7.2.2...v7.2.3\n### Download Options\n\n**Python Package:**\n- PyPI: `pip install g4f==v7.2.3`\n\n**Executables:**\n- Windows x64: `g4f-windows-v7.2.3-x64.zip`\n- Linux x64: `g4f-linux-v7.2.3-x64`\n- Linux ARM64: `g4f-linux-v7.2.3-arm64`\n- macOS x64: `g4f-macos-v7.2.3-x64`\n- macOS ARM64: `g4f-macos-v7.2.3-arm64`\n\n**System Packages:**\n- WinGet: `winget install gpt4free`\n\n**Docker:**\n- `docker pull hlohaus789\u002Fg4f:v7.2.3`\n- `docker pull hlohaus789\u002Fg4f:v7.2.3-slim`\n\n💻 **Having trouble with the .exe from this release?**  \n👉 Check out the Windows launcher for GPT4Free instead:  \n🔗 [https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe) 🚀  \n","2026-02-24T14:39:20",{"id":233,"version":234,"summary_zh":235,"released_at":236},80909,"v7.2.2","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fcompare\u002Fv7.2.1...v7.2.2\n### Download Options\n\n**Python Package:**\n- PyPI: `pip install g4f==v7.2.2`\n\n**Executables:**\n- Windows x64: `g4f-windows-v7.2.2-x64.zip`\n- Linux x64: `g4f-linux-v7.2.2-x64`\n- Linux ARM64: `g4f-linux-v7.2.2-arm64`\n- macOS x64: `g4f-macos-v7.2.2-x64`\n- macOS ARM64: `g4f-macos-v7.2.2-arm64`\n\n**System Packages:**\n- WinGet: `winget install gpt4free`\n\n**Docker:**\n- `docker pull hlohaus789\u002Fg4f:v7.2.2`\n- `docker pull hlohaus789\u002Fg4f:v7.2.2-slim`\n\n💻 **Having trouble with the .exe from this release?**  \n👉 Check out the Windows launcher for GPT4Free instead:  \n🔗 [https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe) 🚀  \n","2026-02-23T11:02:45",{"id":238,"version":239,"summary_zh":240,"released_at":241},80910,"v7.2.1","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fcompare\u002Fv7.2.0...v7.2.1\n### Download Options\n\n**Python Package:**\n- PyPI: `pip install g4f==v7.2.1`\n\n**Executables:**\n- Windows x64: `g4f-windows-v7.2.1-x64.zip`\n- Linux x64: `g4f-linux-v7.2.1-x64`\n- Linux ARM64: `g4f-linux-v7.2.1-arm64`\n- macOS x64: `g4f-macos-v7.2.1-x64`\n- macOS ARM64: `g4f-macos-v7.2.1-arm64`\n\n**System Packages:**\n- WinGet: `winget install gpt4free`\n\n**Docker:**\n- `docker pull hlohaus789\u002Fg4f:v7.2.1`\n- `docker pull hlohaus789\u002Fg4f:v7.2.1-slim`\n\n💻 **Having trouble with the .exe from this release?**  \n👉 Check out the Windows launcher for GPT4Free instead:  \n🔗 [https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe) 🚀  \n","2026-02-23T10:19:18",{"id":243,"version":244,"summary_zh":245,"released_at":246},80911,"v7.2.0","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fcompare\u002Fv7.1.9...v7.2.0\n## g4f v7.2.0\n\n### Download Options\n\n**Python Package:**\n- PyPI: `pip install g4f==v7.2.0`\n\n**Executables:**\n- Windows x64: `g4f-windows-v7.2.0-x64.zip`\n- Linux x64: `g4f-linux-v7.2.0-x64`\n- Linux ARM64: `g4f-linux-v7.2.0-arm64`\n- macOS x64: `g4f-macos-v7.2.0-x64`\n- macOS ARM64: `g4f-macos-v7.2.0-arm64`\n\n**System Packages:**\n- WinGet: `winget install gpt4free`\n\n**Docker:**\n- `docker pull hlohaus789\u002Fg4f:v7.2.0`\n- `docker pull hlohaus789\u002Fg4f:v7.2.0-slim`\n\n💻 **Having trouble with the .exe from this release?**  \n👉 Check out the Windows launcher for GPT4Free instead:  \n🔗 [https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe) 🚀  \n","2026-02-23T06:13:54",{"id":248,"version":249,"summary_zh":250,"released_at":251},80912,"v7.1.9","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fcompare\u002Fv7.1.8...v7.1.9\n## g4f v7.1.9\n\n### Download Options\n\n**Python Package:**\n- PyPI: `pip install g4f==v7.1.9`\n\n**Executables:**\n- Windows x64: `g4f-windows-v7.1.9-x64.zip`\n- Linux x64: `g4f-linux-v7.1.9-x64`\n- Linux ARM64: `g4f-linux-v7.1.9-arm64`\n- macOS x64: `g4f-macos-v7.1.9-x64`\n- macOS ARM64: `g4f-macos-v7.1.9-arm64`\n\n**System Packages:**\n- WinGet: `winget install gpt4free`\n\n**Docker:**\n- `docker pull hlohaus789\u002Fg4f:v7.1.9`\n- `docker pull hlohaus789\u002Fg4f:v7.1.9-slim`\n\n💻 **Having trouble with the .exe from this release?**  \n👉 Check out the Windows launcher for GPT4Free instead:  \n🔗 [https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe) 🚀  \n","2026-02-23T05:56:35",{"id":253,"version":254,"summary_zh":255,"released_at":256},80913,"v7.1.8","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fcompare\u002Fv7.1.7...v7.1.8\n## g4f v7.1.8\n\n### Download Options\n\n**Python Package:**\n- PyPI: `pip install g4f==v7.1.8`\n\n**Executables:**\n- Windows x64: `g4f-windows-v7.1.8-x64.zip`\n- Linux x64: `g4f-linux-v7.1.8-x64`\n- Linux ARM64: `g4f-linux-v7.1.8-arm64`\n- macOS x64: `g4f-macos-v7.1.8-x64`\n- macOS ARM64: `g4f-macos-v7.1.8-arm64`\n\n**System Packages:**\n- WinGet: `winget install gpt4free`\n\n**Docker:**\n- `docker pull hlohaus789\u002Fg4f:v7.1.8`\n- `docker pull hlohaus789\u002Fg4f:v7.1.8-slim`\n\n💻 **Having trouble with the .exe from this release?**  \n👉 Check out the Windows launcher for GPT4Free instead:  \n🔗 [https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe) 🚀  \n","2026-02-23T02:08:03",{"id":258,"version":259,"summary_zh":260,"released_at":261},80914,"v7.1.7","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fcompare\u002Fv7.1.6...v7.1.7\n## g4f v7.1.7\n\n### Download Options\n\n**Python Package:**\n- PyPI: `pip install g4f==v7.1.7`\n\n**Executables:**\n- Windows x64: `g4f-windows-v7.1.7-x64.zip`\n- Linux x64: `g4f-linux-v7.1.7-x64`\n- Linux ARM64: `g4f-linux-v7.1.7-arm64`\n- macOS x64: `g4f-macos-v7.1.7-x64`\n- macOS ARM64: `g4f-macos-v7.1.7-arm64`\n\n**System Packages:**\n- WinGet: `winget install gpt4free`\n\n**Docker:**\n- `docker pull hlohaus789\u002Fg4f:v7.1.7`\n- `docker pull hlohaus789\u002Fg4f:v7.1.7-slim`\n\n💻 **Having trouble with the .exe from this release?**  \n👉 Check out the Windows launcher for GPT4Free instead:  \n🔗 [https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe) 🚀  \n","2026-02-22T22:39:28",{"id":263,"version":264,"summary_zh":265,"released_at":266},80915,"v7.1.6","## What's Changed\r\n* Updates by @hlohaus in https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fpull\u002F3362\r\n* Refactor CLI authentication commands and improve argument parsing by @hlohaus in https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fpull\u002F3365\r\n* `g4f --install-autocomplete` added autocomplete to CLI\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fxtekky\u002Fgpt4free\u002Fcompare\u002Fv7.1.5...v7.1.6\n## g4f v7.1.6\n\n### Download Options\n\n**Python Package:**\n- PyPI: `pip install g4f==v7.1.6`\n\n**Executables:**\n- Windows x64: `g4f-windows-v7.1.6-x64.zip`\n- Linux x64: `g4f-linux-v7.1.6-x64`\n- Linux ARM64: `g4f-linux-v7.1.6-arm64`\n- macOS x64: `g4f-macos-v7.1.6-x64`\n- macOS ARM64: `g4f-macos-v7.1.6-arm64`\n\n**System Packages:**\n- WinGet: `winget install gpt4free`\n\n**Docker:**\n- `docker pull hlohaus789\u002Fg4f:v7.1.6`\n- `docker pull hlohaus789\u002Fg4f:v7.1.6-slim`\n\n💻 **Having trouble with the .exe from this release?**  \n👉 Check out the Windows launcher for GPT4Free instead:  \n🔗 [https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe) 🚀  \n","2026-02-22T12:19:39",{"id":268,"version":269,"summary_zh":270,"released_at":271},80916,"v7.1.5","## g4f v7.1.5\n\n### Download Options\n\n**Python Package:**\n- PyPI: `pip install g4f==v7.1.5`\n\n**Executables:**\n- Windows x64: `g4f-windows-v7.1.5-x64.zip`\n- Linux x64: `g4f-linux-v7.1.5-x64`\n- Linux ARM64: `g4f-linux-v7.1.5-arm64`\n- macOS x64: `g4f-macos-v7.1.5-x64`\n- macOS ARM64: `g4f-macos-v7.1.5-arm64`\n\n**System Packages:**\n- WinGet: `winget install gpt4free`\n\n**Docker:**\n- `docker pull hlohaus789\u002Fg4f:v7.1.5`\n- `docker pull hlohaus789\u002Fg4f:v7.1.5-slim`\n\n💻 **Having trouble with the .exe from this release?**  \n👉 Check out the Windows launcher for GPT4Free instead:  \n🔗 [https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe](https:\u002F\u002Fgithub.com\u002Fgpt4free\u002Fg4f.exe) 🚀  \n","2026-02-21T11:33:48"]