跳转到内容

Go

低成本的开源编程模型订阅服务。

Vikasit Code Go 是一项低成本的订阅服务 —— 首月 5 美元,之后 每月 10 美元 —— 让你能够稳定地访问流行的开源编程模型。

Go 的工作方式与 Vikasit Code 中的任何其他提供商(provider)一样。订阅 Vikasit Code Go 后你将获得 API 密钥。它是 完全可选 的,并非使用 Vikasit Code 所必需的条件。

它主要为国际用户设计,模型托管在美国、欧盟和新加坡,以确保稳定的全球访问。


背景

开源模型现在变得非常强大。在编程任务中,它们的性能已接近专有模型。由于许多提供商都可以提供具有竞争力的服务,它们通常要便宜得多。

然而,获得可靠、低延迟的访问可能很困难。各提供商在质量和可用性方面参差不齐。

为了解决这个问题,我们做了以下几件事:

  1. 我们测试了一组精选的开源模型,并与他们的团队探讨了如何以最佳方式运行它们。
  2. 随后我们与一些提供商合作,以确保正确提供这些服务。
  3. 最后,我们对模型和提供商的组合进行了基准测试(benchmark),得出了一份我们乐于推荐的列表。

Vikasit Code Go 让你能够访问这些模型,首月只需 5 美元,之后 每月 10 美元


工作原理

Vikasit Code Go 的工作方式与 Vikasit Code 中的其他提供商一样。

  1. 登录 Vikasit Code Zen,订阅 Go,然后复制你的 API 密钥。
  2. 在 TUI 中运行 /connect 命令,选择 Vikasit Code Go,然后粘贴你的 API 密钥。
  3. 在 TUI 中运行 /models 以查看通过 Go 可用的模型列表。

当前支持的模型列表包括:

  • GLM-5
  • Kimi K2.5
  • MiniMax M2.5
  • MiniMax M2.7

随着我们进行测试和添加新模型,该列表可能会发生变化。


使用限制

Vikasit Code Go 包含以下限制:

  • 5 小时限制 — 12 美元使用额度
  • 每周限制 — 30 美元使用额度
  • 每月限制 — 60 美元使用额度

限制以美元价值定义。这意味着你的实际请求数取决于你所使用的模型。较便宜的模型(如 MiniMax M2.5)允许更多请求,而较高成本的模型(如 GLM-5)允许较少请求。

下表提供了基于典型 Go 使用模式的预估请求数:

GLM-5Kimi K2.5MiniMax M2.7MiniMax M2.5
每 5 小时请求数1,1501,85014,00020,000
每周请求数2,8804,63035,00050,000
每月请求数5,7509,25070,000100,000

预估值基于观察到的平均请求模式:

  • GLM-5 — 每次请求 700 个输入 token,52,000 个缓存 token,150 个输出 token
  • Kimi K2.5 — 每次请求 870 个输入 token,55,000 个缓存 token,200 个输出 token
  • MiniMax M2.7/M2.5 — 每次请求 300 个输入 token,55,000 个缓存 token,125 个输出 token

你可以在 控制台 中跟踪你当前的使用情况。

使用限制可能会随着我们从早期使用和反馈中学习而发生变化。


超出限制的使用

如果你的 Zen 余额中还有积分,可以在控制台中启用 使用余额(Use balance) 选项。启用后,当你达到使用限制时,Go 会回退使用你的 Zen 余额,而不是拦截请求。


API 端点

你也可以通过以下 API 端点访问 Go 模型。

模型模型 ID端点AI SDK 包
GLM-5glm-5https://opencode.ai/zen/go/v1/chat/completions@ai-sdk/openai-compatible
Kimi K2.5kimi-k2.5https://opencode.ai/zen/go/v1/chat/completions@ai-sdk/openai-compatible
MiniMax M2.7minimax-m2.7https://opencode.ai/zen/go/v1/messages@ai-sdk/anthropic
MiniMax M2.5minimax-m2.5https://opencode.ai/zen/go/v1/messages@ai-sdk/anthropic

你 Vikasit Code 配置中的 模型 ID 使用 opencode-go/<model-id> 格式。例如,对于 Kimi K2.5,你将在配置中使用 opencode-go/kimi-k2.5


隐私保护

该方案主要面向国际用户,模型托管在 US、EU 和 Singapore,以提供稳定的全球访问。我们的提供商遵循零保留政策,不会将您的数据用于模型训练。


目标

我们创建 Vikasit Code Go 的目的是:

  1. 通过低成本订阅让更多人能够 无门槛地 使用 AI 编程。
  2. 为最佳开源编程模型提供 可靠的 访问。
  3. 精选经过 测试和基准评估,适合编程 Agent 使用的模型。
  4. 无锁定(no lock-in),允许你与 Vikasit Code 一起使用任何其他提供商。