feat: home-gateway 초기 구성 — Mac mini에서 GPU 서버로 전면 이전
OrbStack 라이선스 만료로 Mac mini Docker 서비스를 GPU 서버로 통합. nginx → Caddy 전환, 12개 서브도메인 자동 HTTPS, fail2ban Caddy JSON 연동. 주요 변경: - home-caddy: Caddy 리버스 프록시 (Let's Encrypt 자동 HTTPS) - home-fail2ban: Caddy JSON 로그 기반 보안 모니터링 - home-ddns: Cloudflare DDNS (API 키 .env 분리) - gpu-hub-api/web: AI 백엔드 라우터 + 웹 UI (gpu-services에서 이전) - AI 런타임(Ollama) 내부망 전용, 외부는 gpu-hub 인증 게이트웨이 경유 Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
This commit is contained in:
22
backends.json
Normal file
22
backends.json
Normal file
@@ -0,0 +1,22 @@
|
||||
[
|
||||
{
|
||||
"id": "ollama-gpu",
|
||||
"type": "ollama",
|
||||
"url": "http://host.docker.internal:11434",
|
||||
"models": [
|
||||
{ "id": "bge-m3", "capabilities": ["embed"], "priority": 1 }
|
||||
],
|
||||
"access": "all",
|
||||
"rate_limit": null
|
||||
},
|
||||
{
|
||||
"id": "mlx-mac",
|
||||
"type": "openai-compat",
|
||||
"url": "http://192.168.1.122:8800",
|
||||
"models": [
|
||||
{ "id": "qwen3.5:35b-a3b", "backend_model_id": "mlx-community/Qwen3.5-35B-A3B-4bit", "capabilities": ["chat"], "priority": 1 }
|
||||
],
|
||||
"access": "all",
|
||||
"rate_limit": null
|
||||
}
|
||||
]
|
||||
Reference in New Issue
Block a user