指南

多供应商支持:选择你的 AI 后端

CCJK 支持多个 AI 供应商。学习如何配置和切换 Claude、GPT-4 和其他模型。

C
CCJK 团队2025年1月1日
11 分钟阅读
1,088 次阅读
多供应商支持:选择你的 AI 后端

多供应商支持:选择你的 AI 后端

CCJK 设计为供应商无关。虽然针对 Claude 进行了优化,但它支持多个 AI 供应商,让你可以灵活选择最适合需求的模型。

支持的供应商

供应商模型最适合
AnthropicClaude 3.5 Sonnet, Claude 3 Opus复杂推理、代码生成
OpenAIGPT-4, GPT-4 Turbo, GPT-3.5通用任务、广泛兼容
GoogleGemini Pro, Gemini Ultra多模态任务
本地Ollama, LM Studio隐私、离线使用
AzureAzure OpenAI企业合规

配置

基本供应商设置

hljs yaml
# .claude/config.yaml providers: default: anthropic anthropic: api_key: ${ANTHROPIC_API_KEY} model: claude-sonnet-4-20250514 max_tokens: 8192 openai: api_key: ${OPENAI_API_KEY} model: gpt-4-turbo-preview max_tokens: 4096 google: api_key: ${GOOGLE_API_KEY} model: gemini-pro local: endpoint: http://localhost:11434 model: codellama:13b

环境变量

hljs bash
# .env 或 shell 配置文件 export ANTHROPIC_API_KEY="sk-ant-..." export OPENAI_API_KEY="sk-..." export GOOGLE_API_KEY="..."

切换供应商

命令行

hljs bash
# 使用默认供应商 ccjk # 指定供应商 ccjk --provider openai # 指定模型 ccjk --provider anthropic --model claude-3-opus-20240229

会话内切换

你:/provider openai
已切换到 OpenAI (gpt-4-turbo-preview)

你:/provider anthropic
已切换到 Anthropic (claude-sonnet-4-20250514)

你:/model claude-3-opus-20240229
已切换到 claude-3-opus-20240229

按任务指定供应商

hljs yaml
# .claude/skills/complex-analysis.yaml name: complex-analysis provider: anthropic model: claude-3-opus-20240229 # 复杂任务使用 Opus prompt: | 执行深度分析...

供应商特定功能

Anthropic (Claude)

最适合:

  • 复杂代码生成
  • 多文件重构
  • 细致的代码审查

配置:

hljs yaml
anthropic: model: claude-sonnet-4-20250514 max_tokens: 8192 features: extended_thinking: true # 用于复杂问题 artifacts: true # 用于结构化输出

OpenAI (GPT-4)

最适合:

  • 快速任务
  • 广泛的语言支持
  • 函数调用

配置:

hljs yaml
openai: model: gpt-4-turbo-preview max_tokens: 4096 features: json_mode: true function_calling: true vision: true # 用于 GPT-4V

Google (Gemini)

最适合:

  • 多模态任务
  • 长上下文窗口
  • Google Cloud 集成

配置:

hljs yaml
google: model: gemini-pro max_tokens: 8192 features: multi_modal: true long_context: true

本地模型 (Ollama)

最适合:

  • 隐私敏感代码
  • 离线开发
  • 节省成本

配置:

hljs yaml
local: endpoint: http://localhost:11434 model: codellama:13b options: num_ctx: 4096 temperature: 0.7

回退配置

自动回退

hljs yaml
providers: default: anthropic fallback: - provider: openai condition: rate_limit - provider: local condition: api_error anthropic: model: claude-sonnet-4-20250514 rate_limit_fallback: openai openai: model: gpt-4-turbo-preview

基于成本的路由

hljs yaml
routing: # 简单任务使用便宜的模型 simple_tasks: provider: openai model: gpt-3.5-turbo # 复杂任务使用强大的模型 complex_tasks: provider: anthropic model: claude-3-opus-20240229 # 敏感代码使用本地模型 sensitive: provider: local model: codellama:13b

设置本地模型

Ollama 设置

hljs bash
# 安装 Ollama curl -fsSL https://ollama.com/install.sh | sh # 拉取编程模型 ollama pull codellama:13b # 或通用模型 ollama pull llama2:13b # 启动服务器 ollama serve

LM Studio 设置

  1. 从 lmstudio.ai 下载 LM Studio
  2. 下载模型(如 CodeLlama、Mistral)
  3. 启动本地服务器
  4. 配置 CCJK:
hljs yaml
local: endpoint: http://localhost:1234/v1 model: local-model api_type: openai_compatible

企业配置

Azure OpenAI

hljs yaml
azure: endpoint: https://your-resource.openai.azure.com api_key: ${AZURE_OPENAI_KEY} api_version: "2024-02-15-preview" deployment: your-gpt4-deployment

AWS Bedrock

hljs yaml
bedrock: region: us-east-1 model: anthropic.claude-3-sonnet-20240229-v1:0 credentials: access_key: ${AWS_ACCESS_KEY} secret_key: ${AWS_SECRET_KEY}

私有部署

hljs yaml
private: endpoint: https://ai.internal.company.com api_key: ${INTERNAL_API_KEY} model: company-model-v2 tls: ca_cert: /path/to/ca.crt client_cert: /path/to/client.crt

比较供应商

性能比较

运行基准测试:

hljs bash
ccjk benchmark --providers anthropic,openai,local --task code-review

输出:

供应商基准测试结果
==========================

任务:代码审查(500 行)

| 供应商    | 模型               | 时间   | 质量    | 成本    |
|-----------|--------------------| -------|---------|---------|
| Anthropic | claude-3.5-sonnet  | 12.3s  | 9.2/10  | $0.045  |
| OpenAI    | gpt-4-turbo        | 15.1s  | 8.8/10  | $0.062  |
| 本地      | codellama:13b      | 28.4s  | 7.1/10  | $0.00   |

成本分析

hljs bash
ccjk cost --period month --by-provider
月度成本分析
=====================

Anthropic:  $45.20 (1,200 请求)
OpenAI:     $12.50 (450 请求)
本地:       $0.00  (800 请求)

总计:       $57.70
使用本地节省: $28.00

最佳实践

1. 匹配模型与任务

hljs yaml
task_routing: # 快速问题 → 快速、便宜的模型 quick: provider: openai model: gpt-3.5-turbo # 代码生成 → 平衡的模型 code: provider: anthropic model: claude-sonnet-4-20250514 # 架构决策 → 强大的模型 architecture: provider: anthropic model: claude-3-opus-20240229 # 敏感代码 → 本地模型 sensitive: provider: local model: codellama:13b

2. 设置支出限制

hljs yaml
limits: daily_spend: 10.00 monthly_spend: 200.00 alert_threshold: 0.8 # 80% 时告警 per_request: max_tokens: 4096 max_cost: 0.50

3. 监控使用情况

hljs bash
# 查看使用统计 ccjk stats --period week # 导出分析 ccjk stats --export csv --output usage.csv

4. 切换前测试

hljs bash
# 在设为默认前测试供应商 ccjk test-provider openai --task "审查这段代码..." # 比较输出 ccjk compare --providers anthropic,openai --task "实现..."

故障排除

供应商连接问题

hljs bash
# 测试连接 ccjk diagnose --provider anthropic # 检查 API 密钥 ccjk verify-key --provider openai

模型不可用

hljs yaml
# 为不可用模型配置回退 anthropic: model: claude-3-opus-20240229 fallback_model: claude-sonnet-4-20250514

速率限制

hljs yaml
rate_limiting: retry_attempts: 3 retry_delay: 1000 # 毫秒 exponential_backoff: true fallback_on_limit: true

总结

多供应商支持让你可以灵活地:

  • 为每个任务选择最佳模型
  • 有效管理成本
  • 使用本地模型保护隐私
  • 通过回退确保可用性

从单个供应商开始,然后随着了解需求逐步扩展。

下一步:返回入门指南复习基础知识,或探索我们的企业案例研究了解实际应用。

标签

#供应商#配置#openai#claude#灵活性

分享文章

继续阅读

相关文章