多供应商支持:选择你的 AI 后端
CCJK 支持多个 AI 供应商。学习如何配置和切换 Claude、GPT-4 和其他模型。
C
CCJK 团队2025年1月1日
11 分钟阅读
1,088 次阅读
多供应商支持:选择你的 AI 后端
CCJK 设计为供应商无关。虽然针对 Claude 进行了优化,但它支持多个 AI 供应商,让你可以灵活选择最适合需求的模型。
支持的供应商
| 供应商 | 模型 | 最适合 |
|---|---|---|
| Anthropic | Claude 3.5 Sonnet, Claude 3 Opus | 复杂推理、代码生成 |
| OpenAI | GPT-4, GPT-4 Turbo, GPT-3.5 | 通用任务、广泛兼容 |
| Gemini Pro, Gemini Ultra | 多模态任务 | |
| 本地 | Ollama, LM Studio | 隐私、离线使用 |
| Azure | Azure OpenAI | 企业合规 |
配置
基本供应商设置
hljs yaml# .claude/config.yaml
providers:
default: anthropic
anthropic:
api_key: ${ANTHROPIC_API_KEY}
model: claude-sonnet-4-20250514
max_tokens: 8192
openai:
api_key: ${OPENAI_API_KEY}
model: gpt-4-turbo-preview
max_tokens: 4096
google:
api_key: ${GOOGLE_API_KEY}
model: gemini-pro
local:
endpoint: http://localhost:11434
model: codellama:13b
环境变量
hljs bash# .env 或 shell 配置文件
export ANTHROPIC_API_KEY="sk-ant-..."
export OPENAI_API_KEY="sk-..."
export GOOGLE_API_KEY="..."
切换供应商
命令行
hljs bash# 使用默认供应商
ccjk
# 指定供应商
ccjk --provider openai
# 指定模型
ccjk --provider anthropic --model claude-3-opus-20240229
会话内切换
你:/provider openai
已切换到 OpenAI (gpt-4-turbo-preview)
你:/provider anthropic
已切换到 Anthropic (claude-sonnet-4-20250514)
你:/model claude-3-opus-20240229
已切换到 claude-3-opus-20240229
按任务指定供应商
hljs yaml# .claude/skills/complex-analysis.yaml
name: complex-analysis
provider: anthropic
model: claude-3-opus-20240229 # 复杂任务使用 Opus
prompt: |
执行深度分析...
供应商特定功能
Anthropic (Claude)
最适合:
- 复杂代码生成
- 多文件重构
- 细致的代码审查
配置:
hljs yamlanthropic:
model: claude-sonnet-4-20250514
max_tokens: 8192
features:
extended_thinking: true # 用于复杂问题
artifacts: true # 用于结构化输出
OpenAI (GPT-4)
最适合:
- 快速任务
- 广泛的语言支持
- 函数调用
配置:
hljs yamlopenai:
model: gpt-4-turbo-preview
max_tokens: 4096
features:
json_mode: true
function_calling: true
vision: true # 用于 GPT-4V
Google (Gemini)
最适合:
- 多模态任务
- 长上下文窗口
- Google Cloud 集成
配置:
hljs yamlgoogle:
model: gemini-pro
max_tokens: 8192
features:
multi_modal: true
long_context: true
本地模型 (Ollama)
最适合:
- 隐私敏感代码
- 离线开发
- 节省成本
配置:
hljs yamllocal:
endpoint: http://localhost:11434
model: codellama:13b
options:
num_ctx: 4096
temperature: 0.7
回退配置
自动回退
hljs yamlproviders:
default: anthropic
fallback:
- provider: openai
condition: rate_limit
- provider: local
condition: api_error
anthropic:
model: claude-sonnet-4-20250514
rate_limit_fallback: openai
openai:
model: gpt-4-turbo-preview
基于成本的路由
hljs yamlrouting:
# 简单任务使用便宜的模型
simple_tasks:
provider: openai
model: gpt-3.5-turbo
# 复杂任务使用强大的模型
complex_tasks:
provider: anthropic
model: claude-3-opus-20240229
# 敏感代码使用本地模型
sensitive:
provider: local
model: codellama:13b
设置本地模型
Ollama 设置
hljs bash# 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 拉取编程模型
ollama pull codellama:13b
# 或通用模型
ollama pull llama2:13b
# 启动服务器
ollama serve
LM Studio 设置
- 从 lmstudio.ai 下载 LM Studio
- 下载模型(如 CodeLlama、Mistral)
- 启动本地服务器
- 配置 CCJK:
hljs yamllocal:
endpoint: http://localhost:1234/v1
model: local-model
api_type: openai_compatible
企业配置
Azure OpenAI
hljs yamlazure:
endpoint: https://your-resource.openai.azure.com
api_key: ${AZURE_OPENAI_KEY}
api_version: "2024-02-15-preview"
deployment: your-gpt4-deployment
AWS Bedrock
hljs yamlbedrock:
region: us-east-1
model: anthropic.claude-3-sonnet-20240229-v1:0
credentials:
access_key: ${AWS_ACCESS_KEY}
secret_key: ${AWS_SECRET_KEY}
私有部署
hljs yamlprivate:
endpoint: https://ai.internal.company.com
api_key: ${INTERNAL_API_KEY}
model: company-model-v2
tls:
ca_cert: /path/to/ca.crt
client_cert: /path/to/client.crt
比较供应商
性能比较
运行基准测试:
hljs bashccjk benchmark --providers anthropic,openai,local --task code-review
输出:
供应商基准测试结果
==========================
任务:代码审查(500 行)
| 供应商 | 模型 | 时间 | 质量 | 成本 |
|-----------|--------------------| -------|---------|---------|
| Anthropic | claude-3.5-sonnet | 12.3s | 9.2/10 | $0.045 |
| OpenAI | gpt-4-turbo | 15.1s | 8.8/10 | $0.062 |
| 本地 | codellama:13b | 28.4s | 7.1/10 | $0.00 |
成本分析
hljs bashccjk cost --period month --by-provider
月度成本分析
=====================
Anthropic: $45.20 (1,200 请求)
OpenAI: $12.50 (450 请求)
本地: $0.00 (800 请求)
总计: $57.70
使用本地节省: $28.00
最佳实践
1. 匹配模型与任务
hljs yamltask_routing:
# 快速问题 → 快速、便宜的模型
quick:
provider: openai
model: gpt-3.5-turbo
# 代码生成 → 平衡的模型
code:
provider: anthropic
model: claude-sonnet-4-20250514
# 架构决策 → 强大的模型
architecture:
provider: anthropic
model: claude-3-opus-20240229
# 敏感代码 → 本地模型
sensitive:
provider: local
model: codellama:13b
2. 设置支出限制
hljs yamllimits:
daily_spend: 10.00
monthly_spend: 200.00
alert_threshold: 0.8 # 80% 时告警
per_request:
max_tokens: 4096
max_cost: 0.50
3. 监控使用情况
hljs bash# 查看使用统计
ccjk stats --period week
# 导出分析
ccjk stats --export csv --output usage.csv
4. 切换前测试
hljs bash# 在设为默认前测试供应商
ccjk test-provider openai --task "审查这段代码..."
# 比较输出
ccjk compare --providers anthropic,openai --task "实现..."
故障排除
供应商连接问题
hljs bash# 测试连接
ccjk diagnose --provider anthropic
# 检查 API 密钥
ccjk verify-key --provider openai
模型不可用
hljs yaml# 为不可用模型配置回退
anthropic:
model: claude-3-opus-20240229
fallback_model: claude-sonnet-4-20250514
速率限制
hljs yamlrate_limiting:
retry_attempts: 3
retry_delay: 1000 # 毫秒
exponential_backoff: true
fallback_on_limit: true
总结
多供应商支持让你可以灵活地:
- 为每个任务选择最佳模型
- 有效管理成本
- 使用本地模型保护隐私
- 通过回退确保可用性
从单个供应商开始,然后随着了解需求逐步扩展。
继续阅读
相关文章
#团队#协作#工作流
#提示工程#ai#最佳实践
#AI智能体#自动化#工作流
