가이드

멀티 프로바이더 지원: AI 백엔드 선택하기

CCJK는 여러 AI 프로바이더를 지원합니다. Claude, GPT-4 및 기타 모델 간에 구성하고 전환하는 방법을 배워보세요.

C
CCJK Team2025년 1월 1일
11 분 소요
638 회 조회
멀티 프로바이더 지원: AI 백엔드 선택하기

멀티 프로바이더 지원: AI 백엔드 선택하기

CCJK는 프로바이더에 구애받지 않도록 설계되었습니다. Claude에 최적화되어 있지만 여러 AI 프로바이더를 지원하여 필요에 가장 적합한 모델을 선택할 수 있는 유연성을 제공합니다.

지원되는 프로바이더

프로바이더모델최적 용도
AnthropicClaude 3.5 Sonnet, Claude 3 Opus복잡한 추론, 코드 생성
OpenAIGPT-4, GPT-4 Turbo, GPT-3.5일반 작업, 광범위한 호환성
GoogleGemini Pro, Gemini Ultra멀티모달 작업
로컬Ollama, LM Studio프라이버시, 오프라인 사용
AzureAzure OpenAI엔터프라이즈 규정 준수

구성

기본 프로바이더 설정

hljs yaml
# .claude/config.yaml providers: default: anthropic anthropic: api_key: ${ANTHROPIC_API_KEY} model: claude-sonnet-4-20250514 max_tokens: 8192 openai: api_key: ${OPENAI_API_KEY} model: gpt-4-turbo-preview max_tokens: 4096 google: api_key: ${GOOGLE_API_KEY} model: gemini-pro local: endpoint: http://localhost:11434 model: codellama:13b

환경 변수

hljs bash
# .env 또는 셸 프로필 export ANTHROPIC_API_KEY="sk-ant-..." export OPENAI_API_KEY="sk-..." export GOOGLE_API_KEY="..."

프로바이더 전환

명령줄

hljs bash
# 기본 프로바이더 사용 ccjk # 프로바이더 지정 ccjk --provider openai # 모델 지정 ccjk --provider anthropic --model claude-3-opus-20240229

세션 내 전환

사용자: /provider openai
OpenAI (gpt-4-turbo-preview)로 전환되었습니다

사용자: /provider anthropic
Anthropic (claude-sonnet-4-20250514)로 전환되었습니다

사용자: /model claude-3-opus-20240229
claude-3-opus-20240229로 전환되었습니다

작업별 프로바이더

hljs yaml
# .claude/skills/complex-analysis.yaml name: complex-analysis provider: anthropic model: claude-3-opus-20240229 # 복잡한 작업에 Opus 사용 prompt: | 다음에 대한 심층 분석을 수행하세요...

프로바이더별 기능

Anthropic (Claude)

최적 용도:

  • 복잡한 코드 생성
  • 다중 파일 리팩토링
  • 세밀한 코드 리뷰

구성:

hljs yaml
anthropic: model: claude-sonnet-4-20250514 max_tokens: 8192 features: extended_thinking: true # 복잡한 문제용 artifacts: true # 구조화된 출력용

OpenAI (GPT-4)

최적 용도:

  • 빠른 작업
  • 광범위한 언어 지원
  • 함수 호출

구성:

hljs yaml
openai: model: gpt-4-turbo-preview max_tokens: 4096 features: json_mode: true function_calling: true vision: true # GPT-4V용

Google (Gemini)

최적 용도:

  • 멀티모달 작업
  • 긴 컨텍스트 윈도우
  • Google Cloud 통합

구성:

hljs yaml
google: model: gemini-pro max_tokens: 8192 features: multi_modal: true long_context: true

로컬 모델 (Ollama)

최적 용도:

  • 프라이버시에 민감한 코드
  • 오프라인 개발
  • 비용 절감

구성:

hljs yaml
local: endpoint: http://localhost:11434 model: codellama:13b options: num_ctx: 4096 temperature: 0.7

폴백 구성

자동 폴백

hljs yaml
providers: default: anthropic fallback: - provider: openai condition: rate_limit - provider: local condition: api_error anthropic: model: claude-sonnet-4-20250514 rate_limit_fallback: openai openai: model: gpt-4-turbo-preview

비용 기반 라우팅

hljs yaml
routing: # 간단한 작업에 저렴한 모델 사용 simple_tasks: provider: openai model: gpt-3.5-turbo # 복잡한 작업에 강력한 모델 사용 complex_tasks: provider: anthropic model: claude-3-opus-20240229 # 민감한 코드에 로컬 사용 sensitive: provider: local model: codellama:13b

로컬 모델 설정

Ollama 설정

hljs bash
# Ollama 설치 curl -fsSL https://ollama.com/install.sh | sh # 코딩 모델 가져오기 ollama pull codellama:13b # 또는 일반 모델 ollama pull llama2:13b # 서버 시작 ollama serve

LM Studio 설정

  1. lmstudio.ai에서 LM Studio 다운로드
  2. 모델 다운로드 (예: CodeLlama, Mistral)
  3. 로컬 서버 시작
  4. CCJK 구성:
hljs yaml
local: endpoint: http://localhost:1234/v1 model: local-model api_type: openai_compatible

엔터프라이즈 구성

Azure OpenAI

hljs yaml
azure: endpoint: https://your-resource.openai.azure.com api_key: ${AZURE_OPENAI_KEY} api_version: "2024-02-15-preview" deployment: your-gpt4-deployment

AWS Bedrock

hljs yaml
bedrock: region: us-east-1 model: anthropic.claude-3-sonnet-20240229-v1:0 credentials: access_key: ${AWS_ACCESS_KEY} secret_key: ${AWS_SECRET_KEY}

프라이빗 배포

hljs yaml
private: endpoint: https://ai.internal.company.com api_key: ${INTERNAL_API_KEY} model: company-model-v2 tls: ca_cert: /path/to/ca.crt client_cert: /path/to/client.crt

프로바이더 비교

성능 비교

벤치마크 실행:

hljs bash
ccjk benchmark --providers anthropic,openai,local --task code-review

출력:

프로바이더 벤치마크 결과
==========================

작업: 코드 리뷰 (500줄)

| 프로바이더  | 모델              | 시간   | 품질    | 비용    |
|-----------|--------------------| -------|---------|---------|
| Anthropic | claude-3.5-sonnet  | 12.3초 | 9.2/10  | $0.045  |
| OpenAI    | gpt-4-turbo        | 15.1초 | 8.8/10  | $0.062  |
| 로컬      | codellama:13b      | 28.4초 | 7.1/10  | $0.00   |

비용 분석

hljs bash
ccjk cost --period month --by-provider
월간 비용 분석
=====================

Anthropic:  $45.20 (1,200개 요청)
OpenAI:     $12.50 (450개 요청)
로컬:       $0.00  (800개 요청)

총계:       $57.70
로컬에서 절약 예상: $28.00

모범 사례

1. 작업에 모델 매칭

hljs yaml
task_routing: # 빠른 질문 → 빠르고 저렴한 모델 quick: provider: openai model: gpt-3.5-turbo # 코드 생성 → 균형 잡힌 모델 code: provider: anthropic model: claude-sonnet-4-20250514 # 아키텍처 결정 → 강력한 모델 architecture: provider: anthropic model: claude-3-opus-20240229 # 민감한 코드 → 로컬 모델 sensitive: provider: local model: codellama:13b

2. 지출 한도 설정

hljs yaml
limits: daily_spend: 10.00 monthly_spend: 200.00 alert_threshold: 0.8 # 80%에서 알림 per_request: max_tokens: 4096 max_cost: 0.50

3. 사용량 모니터링

hljs bash
# 사용 통계 보기 ccjk stats --period week # 분석을 위해 내보내기 ccjk stats --export csv --output usage.csv

4. 전환 전 테스트

hljs bash
# 기본값으로 만들기 전에 프로바이더 테스트 ccjk test-provider openai --task "이 코드를 검토하세요..." # 출력 비교 ccjk compare --providers anthropic,openai --task "구현하세요..."

문제 해결

프로바이더 연결 문제

hljs bash
# 연결 테스트 ccjk diagnose --provider anthropic # API 키 확인 ccjk verify-key --provider openai

모델을 사용할 수 없음

hljs yaml
# 사용할 수 없는 모델에 대한 폴백 구성 anthropic: model: claude-3-opus-20240229 fallback_model: claude-sonnet-4-20250514

속도 제한

hljs yaml
rate_limiting: retry_attempts: 3 retry_delay: 1000 # ms exponential_backoff: true fallback_on_limit: true

결론

멀티 프로바이더 지원은 다음과 같은 유연성을 제공합니다:

  • 각 작업에 최적의 모델 선택
  • 비용을 효과적으로 관리
  • 로컬 모델로 프라이버시 유지
  • 폴백으로 가용성 보장

단일 프로바이더로 시작한 다음 필요를 이해하면서 확장하세요.

다음: 기본 사항을 검토하려면 시작하기로 돌아가거나 실제 사례를 위한 케이스 스터디를 탐색하세요.

태그

#providers#configuration#openai#claude#flexibility

이 아티클 공유

继续阅读

관련 아티클