- proxy_openai.py 추가: MLX 서버 SSE 패스스루 - chat.py: openai-compat 백엔드 타입 라우팅 추가 - backends.json: GPU=embed(bge-m3)만, 맥미니MLX=채팅(qwen3.5:35b-a3b) - LAN IP(192.168.1.122) 사용 (같은 서브넷, Tailscale 불필요) Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
23 lines
481 B
JSON
23 lines
481 B
JSON
[
|
|
{
|
|
"id": "ollama-gpu",
|
|
"type": "ollama",
|
|
"url": "http://host.docker.internal:11434",
|
|
"models": [
|
|
{ "id": "bge-m3", "capabilities": ["embed"], "priority": 1 }
|
|
],
|
|
"access": "all",
|
|
"rate_limit": null
|
|
},
|
|
{
|
|
"id": "mlx-mac",
|
|
"type": "openai-compat",
|
|
"url": "http://192.168.1.122:8800",
|
|
"models": [
|
|
{ "id": "qwen3.5:35b-a3b", "capabilities": ["chat"], "priority": 1 }
|
|
],
|
|
"access": "all",
|
|
"rate_limit": null
|
|
}
|
|
]
|