核心结论 (TL;DR)- 国内平台内卷严重,免费额度充足,无特殊需求时,国内API基本够用。
- 主力模型/平台推荐:阿里iFlow、字节火山引擎、阿里ModelScope魔搭社区。
- 免费编程工具 (Vibe Coding) 推荐:腾讯CodeBuddy、快手CodeFlicker、阿里通义灵码。
国内厂商与平台| 平台/厂商 | 核心特点与免费额度 | 主要免费模型 | 使用限制/说明 |
|---|
| 阿里 iFlow | ⭐ S级推荐。免费额度极大,不限量,速度快。iflow-cli 是免费的编程工具。 | 千问系列、Kimi-K2、GLM-4.6/4.7、DeepSeek-V3.2、MiniMax-M2.1 | 单用户并发请求数为1,超限返回429。 | | 字节 火山引擎 | 单模型每日免费 250万 token,速度快,体验好。 | 豆包系列、DeepSeek-V3.2、Kimi-K2 | 需在不同模型间切换以满足总需求。提供文生图模型。 | | 阿里 ModelScope 魔搭社区 | 免费额度稳定,但热门模型可能动态调整。 | 千问系列模型稳定 | 每日总调用2000次,单模型日限500次(部分大模型限200次)。提供文生图模型。 | | 快手 KAT-Coder | 长期提供 KAT-Coder-Air 免费使用,速度快,适合测试。 | KAT-Coder-Pro, KAT-Coder-Air | 分高峰/非高峰时段,每6小时有120/200次对话请求限制。 | | 智谱 AI | 官方提供免费小模型API,长期稳定,种类全。 | GLM-4-Flash, GLM-4V-Flash, Cogview-3-Flash | 速度较快,效果一般。限制并发请求数。 | | 硅基流动 SiliconFlow | 长期稳定提供多种小模型(7B/8B/9B),速度快。 | 多种开源小模型 | 不提供大参数免费模型。TPM多为50K。 | | 美团 LongCat | 每个账号每日自动获得 50万 Token 免费额度。 | LongCat 系列模型 | 单次请求输出最大8K Token。 | | 七牛云 AI推理服务 | 特别提及。国内少有官方提供OpenAI/Claude/Gemini等国际模型的平台。 | 包含GPT、Claude、Gemini等国际主流模型 | 新用户赠300万Token资源包(有效期1年),速度快。 |
国外厂商与平台| 平台/厂商 | 核心特点与免费额度 | 主要免费模型 | 使用限制/说明 |
|---|
| NVIDIA NIM API | 模型丰富,免费不限量,体验优于OpenRouter。 | GLM-4.7, MiniMax-M2.1, DeepSeek-V3.2, Qwen3-Coder等 | RPM限制为40。支持部分文生图模型。 | | Cerebras Inference | ⭐ S级推荐。速度极快(可达220+ token/s),但免费模型常更换。 | GLM-4.6, Qwen-3-235B等 | 每日免费Token数为100万(TPD-1M),RPM为10-30。 | | OpenRouter | 模型极其丰富,长期稳定。是许多公益站的上游渠道。 | 名称中带 free 的模型 | 未充值用户:50 RPD;充值用户:1000 RPD。 | | Mistral | 欧洲主流厂商,免费额度巨大。 | Mistral, Devstral 系列模型 | 每月10亿Token,约合每日3300万Token。 | | Groq | 免费模型种类多,但大模型少。 | Kimi-K2, GPT-OSS-120B, LLaMA等 | 每日免费Token较少(100K-500K)。 | | Poe | 非研发/聚合商,主做ChatBot工具。也提供API。 | 支持多种模型(GPT-5-mini, Claude Code等) | 免费用户每日3000积分。不支持结构化输出,不推荐用于AI编程工具。 |
免费编程工具 (Vibe Coding) 对比| 工具名称 | 类型 | 核心免费模型/额度 | 是否支持自定义API | 特点说明 |
|---|
| 腾讯 CodeBuddy | 独立IDE | GLM-4.6/4.7, DeepSeek-V3.1等 | ❌ 不支持 | 免费额度大,有独立图形界面。 | | 阿里 通义灵码 | 独立IDE | 千问系列(不限量) | ❌ 不支持 | 免费不限量,模型固定为千问。 | | 阿里 Qwen-Code | CLI命令行 | 每日2000次请求(RPD) | ✅ 支持 | 免费额度大,长期稳定,需命令行配置。 | | 快手 CodeFlicker | 独立IDE | Kimi-K2, DeepSeek-V3.2, GLM-4.6等 | ❌ 不支持 | 提供多种最新模型。 | | Cline / Roo Code / Kilo Code | VSCode扩展 / CLI | 界面长期提供免费模型(如MiniMax-M2.1) | ✅ 支持 | 推荐。在扩展设置界面可直接填写自定义API/URL,切换灵活。 | | 字节 TRAE | 独立IDE | GLM-4.7, MiniMax-M2.1, Kimi-K2等 | ✅ 支持(但需API Key) | 免费模型多,但使用最新模型时可能需排队。 |
💡 编程工具选择建议: - 厂商定制IDE(如CodeBuddy、通义灵码):免费额度大,开箱即用,但无法更换模型。
- 扩展/CLI工具(如Cline、Qwen-Code):支持自定义API,灵活度高,是使用上述免费平台API的最佳载体。
限时免费/活动渠道 (需关注时效性)以下渠道可能不稳定,建议及时测试。 - Cerebras (2026-01-09):免费提供 GLM-4.7,TPD-1M。
- MiniMax-M2.1 限免 (2026-01-05):在 Cline、Kilo Code、Roo Code 等工具中可免费使用。
- NVIDIA NIM APIs (2026-01-03):开始免费提供 GLM-4.7, MiniMax-M2.1(资源可能紧张)。
- AI Ping (2025-12-26):曾限时免费 GLM-4.7, MiniMax-M2.1,可定期查看新活动。
📊 术语说明: - RPM:每分钟请求数
- RPD:每天请求数
- TPM:每分钟Token数
- TPD:每天Token数
🔍 最后:面对众多免费API,可使用支持多API管理的客户端(如Open WebUI, NextChat等)或能自定义模型端点的编程工具(如Cline)进行统一管理和切换。 |