ガイド

マルチプロバイダーサポート:AIバックエンドを選択

CCJKは複数のAIプロバイダーをサポートしています。Claude、GPT-4、その他のモデルを設定して切り替える方法を学びます。

C
CCJK Team2025年1月1日
11 分で読めます
2,322 回閲覧
マルチプロバイダーサポート:AIバックエンドを選択

マルチプロバイダーサポート:AIバックエンドを選択

CCJKはプロバイダーに依存しない設計になっています。Claudeに最適化されていますが、複数のAIプロバイダーをサポートしており、ニーズに最適なモデルを選択できる柔軟性があります。

サポートされているプロバイダー

プロバイダーモデル最適な用途
AnthropicClaude 3.5 Sonnet、Claude 3 Opus複雑な推論、コード生成
OpenAIGPT-4、GPT-4 Turbo、GPT-3.5一般的なタスク、広範な互換性
GoogleGemini Pro、Gemini Ultraマルチモーダルタスク
LocalOllama、LM Studioプライバシー、オフライン使用
AzureAzure OpenAIエンタープライズコンプライアンス

設定

基本プロバイダーセットアップ

hljs yaml
# .claude/config.yaml providers: default: anthropic anthropic: api_key: ${ANTHROPIC_API_KEY} model: claude-sonnet-4-20250514 max_tokens: 8192 openai: api_key: ${OPENAI_API_KEY} model: gpt-4-turbo-preview max_tokens: 4096 google: api_key: ${GOOGLE_API_KEY} model: gemini-pro local: endpoint: http://localhost:11434 model: codellama:13b

環境変数

hljs bash
# .env またはシェルプロファイル export ANTHROPIC_API_KEY="sk-ant-..." export OPENAI_API_KEY="sk-..." export GOOGLE_API_KEY="..."

プロバイダーの切り替え

コマンドライン

hljs bash
# デフォルトプロバイダーを使用 ccjk # プロバイダーを指定 ccjk --provider openai # モデルを指定 ccjk --provider anthropic --model claude-3-opus-20240229

セッション内での切り替え

あなた:/provider openai
OpenAI(gpt-4-turbo-preview)に切り替えました

あなた:/provider anthropic
Anthropic(claude-sonnet-4-20250514)に切り替えました

あなた:/model claude-3-opus-20240229
claude-3-opus-20240229に切り替えました

タスクごとのプロバイダー

hljs yaml
# .claude/skills/complex-analysis.yaml name: complex-analysis provider: anthropic model: claude-3-opus-20240229 # 複雑なタスクにはOpusを使用 prompt: | 以下の詳細な分析を実行してください...

プロバイダー固有の機能

Anthropic(Claude)

最適な用途:

  • 複雑なコード生成
  • マルチファイルリファクタリング
  • 繊細なコードレビュー

設定:

hljs yaml
anthropic: model: claude-sonnet-4-20250514 max_tokens: 8192 features: extended_thinking: true # 複雑な問題用 artifacts: true # 構造化された出力用

OpenAI(GPT-4)

最適な用途:

  • クイックタスク
  • 広範な言語サポート
  • 関数呼び出し

設定:

hljs yaml
openai: model: gpt-4-turbo-preview max_tokens: 4096 features: json_mode: true function_calling: true vision: true # GPT-4V用

Google(Gemini)

最適な用途:

  • マルチモーダルタスク
  • 長いコンテキストウィンドウ
  • Google Cloud統合

設定:

hljs yaml
google: model: gemini-pro max_tokens: 32768 features: multimodal: true long_context: true

ローカルモデル(Ollama)

最適な用途:

  • プライバシー重視の開発
  • オフライン作業
  • カスタムモデル

設定:

hljs yaml
local: endpoint: http://localhost:11434 model: codellama:13b features: offline: true custom_models: true

Azure OpenAI

最適な用途:

  • エンタープライズコンプライアンス
  • 既存のAzureインフラストラクチャ
  • 地域データ要件

設定:

hljs yaml
azure: endpoint: https://your-resource.openai.azure.com/ api_key: ${AZURE_OPENAI_KEY} deployment: gpt-4-deployment api_version: "2024-02-15-preview"

プロバイダーの比較

パフォーマンス比較

タスクClaude SonnetGPT-4 TurboGemini Pro
コード生成⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
コードレビュー⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
リファクタリング⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
テスト生成⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
ドキュメント⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
デバッグ⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
速度⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
コスト⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐

コスト比較

hljs yaml
# 概算コスト(100万トークンあたり) pricing: anthropic: claude-sonnet-4: $3.00 入力 / $15.00 出力 claude-opus: $15.00 入力 / $75.00 出力 openai: gpt-4-turbo: $10.00 入力 / $30.00 出力 gpt-3.5-turbo: $0.50 入力 / $1.50 出力 google: gemini-pro: $0.50 入力 / $1.50 出力 local: ollama: 無料(ハードウェアコストのみ)

高度な設定

フォールバック戦略

hljs yaml
# .claude/config.yaml providers: default: anthropic fallback_chain: - anthropic - openai - google - local retry_policy: max_attempts: 3 backoff: exponential timeout: 30s

ロードバランシング

hljs yaml
load_balancing: strategy: round_robin # または weighted, least_latency providers: - name: anthropic weight: 50 - name: openai weight: 30 - name: google weight: 20

タスクベースのルーティング

hljs yaml
routing: rules: - task: code_generation provider: anthropic model: claude-sonnet-4-20250514 - task: quick_questions provider: openai model: gpt-3.5-turbo - task: long_context provider: google model: gemini-pro - task: offline provider: local model: codellama:13b

プロバイダー固有の最適化

Anthropic最適化

hljs yaml
anthropic: model: claude-sonnet-4-20250514 optimizations: # 複雑なタスクに拡張思考を使用 use_extended_thinking: true # 構造化された出力にアーティファクトを使用 use_artifacts: true # プロンプトキャッシングを有効化 enable_prompt_caching: true # 最適なトークン使用 max_tokens: 8192

OpenAI最適化

hljs yaml
openai: model: gpt-4-turbo-preview optimizations: # 構造化された出力にJSONモードを使用 json_mode: true # ツール統合に関数呼び出しを使用 function_calling: true # 応答時間を改善 stream: true # コストを削減 max_tokens: 4096

ローカルモデル最適化

hljs yaml
local: endpoint: http://localhost:11434 model: codellama:13b optimizations: # GPUアクセラレーションを有効化 gpu_layers: 35 # コンテキストサイズを増やす context_size: 8192 # バッチ処理を使用 batch_size: 512 # スレッドを最適化 threads: 8

モニタリングとメトリクス

使用状況の追跡

hljs yaml
# .claude/monitoring.yaml tracking: enabled: true metrics: - provider_usage - token_consumption - response_time - error_rate - cost_estimation export: format: json interval: daily destination: .claude/metrics/

コスト管理

hljs yaml
cost_management: budget: daily: 10.00 monthly: 200.00 currency: USD alerts: - threshold: 80% action: notify - threshold: 100% action: switch_to_cheaper_provider optimization: auto_switch: true prefer_cheaper: true cache_responses: true

ベストプラクティス

1. 適切なプロバイダーを選択

hljs yaml
# タスクに基づいてプロバイダーを選択 tasks: complex_reasoning: provider: anthropic model: claude-3-opus-20240229 quick_tasks: provider: openai model: gpt-3.5-turbo long_documents: provider: google model: gemini-pro offline_work: provider: local model: codellama:13b

2. コストを最適化

hljs yaml
cost_optimization: # 安価なモデルから始める default: gpt-3.5-turbo # 必要に応じてアップグレード upgrade_conditions: - complexity: high - context_length: > 4000 - task_type: code_generation

3. 応答をキャッシュ

hljs yaml
caching: enabled: true ttl: 3600 # 1時間 strategies: - prompt_caching # 同じプロンプト - response_caching # 同じ応答 - context_caching # 同じコンテキスト

4. フォールバックを実装

hljs yaml
fallback: enabled: true chain: - primary: anthropic fallback: openai condition: rate_limit - primary: openai fallback: google condition: timeout - primary: google fallback: local condition: network_error

トラブルシューティング

一般的な問題

問題1:APIキーエラー

hljs bash
# APIキーを確認 echo $ANTHROPIC_API_KEY echo $OPENAI_API_KEY # 設定を検証 ccjk config validate

問題2:レート制限

hljs yaml
# レート制限を設定 rate_limiting: anthropic: requests_per_minute: 50 tokens_per_minute: 100000 openai: requests_per_minute: 60 tokens_per_minute: 150000

問題3:接続エラー

hljs yaml
# リトライ設定 retry: max_attempts: 3 backoff: exponential timeout: 30s on_error: - network_error - timeout - rate_limit

移行ガイド

プロバイダー間の移行

hljs bash
# 現在の設定をエクスポート ccjk config export --provider anthropic > anthropic-config.yaml # 新しいプロバイダー用に変換 ccjk config convert \ --from anthropic-config.yaml \ --to openai \ --output openai-config.yaml # 新しい設定をインポート ccjk config import openai-config.yaml

段階的な移行

hljs yaml
# 段階1:両方のプロバイダーを設定 providers: - anthropic # 既存 - openai # 新規 # 段階2:新しいプロバイダーをテスト test_mode: enabled: true provider: openai compare_with: anthropic # 段階3:徐々に移行 migration: strategy: gradual percentage: 10 # 10%のトラフィックから始める increase_rate: 10 # 毎日10%増加

まとめ

CCJKのマルチプロバイダーサポートにより、柔軟性とコスト最適化が可能になります:

  1. 複数のプロバイダー:Anthropic、OpenAI、Google、ローカルモデルをサポート
  2. 簡単な切り替え:コマンドラインまたは設定で切り替え
  3. タスクベースのルーティング:タスクに最適なプロバイダーを使用
  4. コスト管理:予算を設定してコストを追跡
  5. フォールバック:信頼性のためのフォールバック戦略
  6. 最適化:各プロバイダーに固有の最適化

ニーズ、予算、要件に基づいて適切なプロバイダーを選択してください。

よくある質問

複数のプロバイダーを同時に使用できますか?

はい、タスクベースのルーティングまたはロードバランシングで複数のプロバイダーを使用できます。

どのプロバイダーが最もコスト効率が良いですか?

Gemini ProとGPT-3.5 Turboが最もコスト効率が良いですが、タスクの複雑さによって異なります。

ローカルモデルはクラウドモデルと同じくらい良いですか?

ローカルモデルはプライバシーとオフライン使用に優れていますが、複雑なタスクではクラウドモデルの方が優れています。

プロバイダーを簡単に切り替えられますか?

はい、CCJKはプロバイダー間のシームレスな切り替えをサポートしており、設定の移行ツールも提供しています。

タグ

#providers#configuration#openai#claude#flexibility

この記事をシェア

继续阅读

関連記事