GPU 서버 중앙 AI 라우팅 서비스 초기 구현: - OpenAI 호환 API (/v1/chat/completions, /v1/models, /v1/embeddings) - 모델 레지스트리 + 백엔드 헬스체크 (30초 루프) - Ollama SSE 프록시 (NDJSON → OpenAI SSE 변환) - JWT 인증 이중 경로 (httpOnly 쿠키 + Bearer 토큰) - owner/guest 역할 분리, 로그인 rate limiting - 백엔드별 rate limiting (NanoClaude 대비) - SQLite 스키마 사전 정의 (aiosqlite + WAL) - Docker Compose + Caddy 리버스 프록시 Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
14 lines
330 B
JSON
14 lines
330 B
JSON
[
|
|
{
|
|
"id": "ollama-gpu",
|
|
"type": "ollama",
|
|
"url": "http://host.docker.internal:11434",
|
|
"models": [
|
|
{ "id": "qwen3.5:9b-q8_0", "capabilities": ["chat"], "priority": 1 },
|
|
{ "id": "qwen3-vl:8b", "capabilities": ["chat", "vision"], "priority": 1 }
|
|
],
|
|
"access": "all",
|
|
"rate_limit": null
|
|
}
|
|
]
|