feat: local AI server scaffolding (FastAPI, RAG, embeddings). Port policy (>=26000), README/API docs, scripts.

This commit is contained in:
hyungi
2025-08-13 07:24:06 +09:00
commit 72d889f5ef
15 changed files with 2486 additions and 0 deletions

27
.gitignore vendored Normal file
View File

@@ -0,0 +1,27 @@
# Python
__pycache__/
*.py[cod]
*$py.class
# Virtual envs
.venv/
venv/
ENV/
# macOS
.DS_Store
.AppleDouble
.LSOverride
# Editors/IDE
.vscode/
.idea/
# Logs
*.log
# Cache/Build
dist/
build/
.pytest_cache/

206
README.md Normal file
View File

@@ -0,0 +1,206 @@
### 로컬 AI 서버 (Mac mini M4 Pro 64GB)
이 저장소는 Apple Silicon(M4 Pro, RAM 64GB) 환경에서 로컬 AI 모델을 실행해 API 서버로 활용하기 위한 기본 구성과 가이드를 제공합니다.
## 현재 설치 상태
- **러너**: Ollama 0.11.4 확인됨
- **Ollama 로컬 모델**:
- qwen2.5:1.5b
- mistral:7b
- **LM Studio 로컬 모델**:
- gemma-3-4b-it
## 하드웨어 요약 (권장 기준)
- **칩셋**: Apple M4 Pro (Metal/ANE 가속 활용 가능)
- **메모리**: 64GB 통합 메모리
- **권장 동시성**: 13 세션(프롬프트 길이에 따라 조절)
## 권장 모델 (M4 Pro 64GB)
- **일반 대화/업무**
- Llama 3.1 8B Instruct: 품질·속도 밸런스 좋음, 긴 문서 요약/대화에 적합
- Qwen2.5 7B Instruct: 정보 회수/한글 대응 우수, 속도 양호
- Mistral 7B Instruct: 경량/속도 지향, 기본 품질 안정적
- Gemma 2 9B IT: 간결한 답변과 대화 품질 균형
- **코딩 보조**
- Qwen2.5-Coder 7B: 코드 생성/수정/해설에 실용적, 메모리 요구도 낮음
- DeepSeek-Coder 6.7B 또는 16B(Lite): 코드 품질 강점, 16B는 속도·메모리 여유 필요
- **초경량**
- Phi-3.5/3.1 Mini(34B): 간단 질의응답/요약, 서버 부하가 낮음
- 참고: 1432B급도 구동 가능하나(예: Qwen2.5 14B/32B), 긴 컨텍스트/동시성 시 메모리 여유가 적어질 수 있음. 70B급은 64GB 환경에서 가능하더라도 속도·안정성 상 비권장.
## 설치 (Ollama)
아래 명령으로 권장 모델을 내려받을 수 있습니다. 태그는 상황에 따라 업데이트될 수 있으니 `ollama run <model>` 시 안내를 확인하세요.
```bash
# 일반 대화
ollama pull llama3.1:8b-instruct
ollama pull qwen2.5:7b-instruct
ollama pull mistral:7b
ollama pull gemma2:9b-instruct
# 코딩 보조
ollama pull qwen2.5-coder:7b
ollama pull deepseek-coder:6.7b
# 초경량
ollama pull phi3:mini
```
이미 설치된 모델 확인:
```bash
ollama list
```
모델 실행(대화형 테스트):
```bash
ollama run qwen2.5:7b-instruct
```
## REST API로 바로 쓰기 (Ollama 내장 서버)
Ollama는 기본적으로 `http://localhost:11434`에서 API를 제공합니다.
```bash
# 단발성 텍스트 생성
curl http://localhost:11434/api/generate \
-H "Content-Type: application/json" \
-d '{
"model": "qwen2.5:7b-instruct",
"prompt": "한국어로 이 모델의 장점을 3가지로 요약해줘",
"stream": false
}'
# Chat 형식
curl http://localhost:11434/api/chat \
-H "Content-Type: application/json" \
-d '{
"model": "llama3.1:8b-instruct",
"messages": [
{"role": "user", "content": "로컬 LLM 서버 운영 팁을 알려줘"}
],
"stream": false
}'
```
TIP: 긴 문서를 다루려면 `num_ctx`(컨텍스트 길이)와 `num_thread`를 모델/하드웨어에 맞춰 조정하세요. 과도하게 늘리면 속도와 메모리 사용량이 크게 증가합니다.
## 포트 정책
- **AI 서버 표준 포트**: 26000 이상 사용 권장 (예: 26000)
- 환경 변수 `AI_SERVER_PORT`로 조정 가능. 기본값 26000.
개발 서버 실행 스크립트(`scripts/dev_server.sh`)는 위 정책을 따릅니다.
## API 개요 (Paperless/시놀로지 연동)
- 기본 베이스 모델(24/7): `BASE_MODEL` (기본: `qwen2.5:7b-instruct`)
- 온디맨드 부스팅 모델: `BOOST_MODEL` (기본: `qwen2.5:14b-instruct`)
- 임베딩(RAG): `EMBEDDING_MODEL` (기본: `nomic-embed-text`), 인덱스 파일 `INDEX_PATH` (기본: `data/index.jsonl`)
- 문서화: `http://localhost:26000/docs` (FastAPI 자동 문서)
### 헬스체크
```bash
curl -s http://localhost:26000/health
```
### 검색(Search, RAG용)
```bash
curl -s -X POST http://localhost:26000/search \
-H 'Content-Type: application/json' \
-d '{
"query": "질문 내용",
"top_k": 5
}'
```
### 채팅(Chat, RAG/부스팅 자동)
```bash
curl -s -X POST http://localhost:26000/chat \
-H 'Content-Type: application/json' \
-d '{
"messages": [
{"role": "user", "content": "문서 내용 기반으로 요약해줘"}
],
"use_rag": true,
"top_k": 5,
"force_boost": false,
"options": {"num_ctx": 32768, "temperature": 0.3}
}'
```
필드 설명:
- `use_rag`: 인덱스(`INDEX_PATH`)에서 상위 청크를 검색해 시스템 프롬프트로 주입
- `force_boost`: 강제로 부스팅 모델 사용(고난도/장문)
- `options`: Ollama 옵션(예: `num_ctx`, `temperature` 등)
### 인덱스 갱신(Upsert)
Paperless/시놀로지에서 추출한 본문 텍스트를 직접 인덱스에 추가합니다.
```bash
curl -s -X POST http://localhost:26000/index/upsert \
-H 'Content-Type: application/json' \
-d '{
"rows": [
{"id": "paperless:123", "text": "문서 본문 텍스트", "source": "paperless"}
],
"embed": true
}'
```
### 인덱스 리로드
```bash
curl -s -X POST http://localhost:26000/index/reload
```
### Paperless 훅(Webhook) 자리표시자
```bash
curl -s -X POST http://localhost:26000/paperless/hook \
-H 'Content-Type: application/json' \
-d '{"document_id": 123, "title": "문서제목", "tags": ["finance"]}'
```
해당 훅은 문서 도착을 통지받는 용도로 제공됩니다. 실제 본문 텍스트는 Paperless API로 조회해 `/index/upsert`로 추가하세요.
## 시놀로지 메일/오피스 연동 가이드(요약)
- **검색/QA 호출 엔드포인트**: `http://<AI서버IP>:26000/search`, `http://<AI서버IP>:26000/chat`
- **권장 흐름**:
- 메일/문서 본문 → `/index/upsert`로 인덱스 추가(임베딩 생성)
- 사용자 질의 → `/chat` 호출(`use_rag=true`) → 관련 청크 Top-k 주입 후 응답
- **모델 라우팅**:
- 기본: 베이스 모델(7B/8B)
- 장문/고난도: `force_boost=true` 또는 메시지 길이에 따라 자동 부스팅(14B)
## 환경 변수
- `AI_SERVER_PORT`(기본 26000): 서버 포트
- `OLLAMA_HOST`(기본 `http://localhost:11434`): Ollama API 호스트
- `BASE_MODEL`(기본 `qwen2.5:7b-instruct`)
- `BOOST_MODEL`(기본 `qwen2.5:14b-instruct`)
- `EMBEDDING_MODEL`(기본 `nomic-embed-text`)
- `INDEX_PATH`(기본 `data/index.jsonl`)
- `PAPERLESS_BASE_URL`, `PAPERLESS_TOKEN`(선택): Paperless API 연동 시 사용
## 이 저장소 사용 계획
1) Ollama API를 감싸는 경량 서버(Express 또는 FastAPI) 추가
2) 표준화된 엔드포인트(`/v1/chat/completions`, `/v1/completions`) 제공
3) 헬스체크/모델 선택/리밋/로깅 옵션 제공
우선 본 문서로 설치/선택 가이드를 정리했으며, 다음 단계에서 서버 스켈레톤과 샘플 클라이언트를 추가할 예정입니다.

35
data/index.jsonl Normal file

File diff suppressed because one or more lines are too long

6
requirements.txt Normal file
View File

@@ -0,0 +1,6 @@
fastapi==0.115.6
uvicorn[standard]==0.30.6
requests==2.32.4
pydantic==2.8.2
pypdf==6.0.0
tiktoken==0.11.0

13
scripts/dev_server.sh Executable file
View File

@@ -0,0 +1,13 @@
#!/usr/bin/env bash
set -euo pipefail
export OLLAMA_HOST=${OLLAMA_HOST:-http://localhost:11434}
export BASE_MODEL=${BASE_MODEL:-qwen2.5:7b-instruct}
export BOOST_MODEL=${BOOST_MODEL:-qwen2.5:14b-instruct}
export EMBEDDING_MODEL=${EMBEDDING_MODEL:-nomic-embed-text}
export INDEX_PATH=${INDEX_PATH:-data/index.jsonl}
export AI_SERVER_PORT=${AI_SERVER_PORT:-26000}
source .venv/bin/activate
exec uvicorn server.main:app --host 0.0.0.0 --port "$AI_SERVER_PORT" --reload

85
scripts/embed_ollama.py Normal file
View File

@@ -0,0 +1,85 @@
#!/usr/bin/env python3
import argparse
import json
import os
from pathlib import Path
from typing import List, Dict, Any
import requests
def chunk_text(text: str, max_chars: int = 1200, overlap: int = 200) -> List[str]:
chunks: List[str] = []
start = 0
n = len(text)
while start < n:
end = min(start + max_chars, n)
chunk = text[start:end].strip()
if chunk:
chunks.append(chunk)
if end == n:
break
start = max(0, end - overlap)
return chunks
def embed_texts_ollama(texts: List[str], model: str = "nomic-embed-text", host: str = "http://localhost:11434") -> List[List[float]]:
url = f"{host}/api/embeddings"
vectors: List[List[float]] = []
for t in texts:
resp = requests.post(url, json={"model": model, "prompt": t}, timeout=120)
resp.raise_for_status()
data = resp.json()
vectors.append(data["embedding"]) # type: ignore[index]
return vectors
def main() -> None:
parser = argparse.ArgumentParser(description="Build simple vector index using Ollama embeddings")
parser.add_argument("--text", default=None, help="Path to extracted .txt; default = first in data/")
parser.add_argument("--model", default="nomic-embed-text", help="Ollama embedding model name")
parser.add_argument("--host", default="http://localhost:11434", help="Ollama host")
parser.add_argument("--out", default="data/index.jsonl", help="Output JSONL path")
parser.add_argument("--max-chars", type=int, default=1200, help="Max characters per chunk")
parser.add_argument("--overlap", type=int, default=200, help="Characters overlap between chunks")
args = parser.parse_args()
data_dir = Path("data")
if args.text:
text_path = Path(args.text)
else:
txts = sorted(data_dir.glob("*.txt"))
if not txts:
raise SystemExit("data/*.txt가 없습니다. 먼저 scripts/pdf_stats.py로 PDF를 추출하세요.")
text_path = txts[0]
text = text_path.read_text(encoding="utf-8")
chunks = chunk_text(text, max_chars=args.max_chars, overlap=args.overlap)
vectors = embed_texts_ollama(chunks, model=args.model, host=args.host)
out_path = Path(args.out)
out_path.parent.mkdir(parents=True, exist_ok=True)
with out_path.open("w", encoding="utf-8") as f:
for i, (chunk, vec) in enumerate(zip(chunks, vectors)):
row: Dict[str, Any] = {
"id": f"{text_path.stem}:{i}",
"text": chunk,
"vector": vec,
"source": text_path.name,
}
f.write(json.dumps(row, ensure_ascii=False) + "\n")
meta = {
"source_text": str(text_path),
"embedding_model": args.model,
"host": args.host,
"chunks": len(chunks),
"index_path": str(out_path),
}
print(json.dumps(meta, ensure_ascii=False))
if __name__ == "__main__":
main()

15
scripts/install_server.sh Executable file
View File

@@ -0,0 +1,15 @@
#!/usr/bin/env bash
set -euo pipefail
VENV_DIR=".venv"
if [ ! -d "$VENV_DIR" ]; then
python3 -m venv "$VENV_DIR"
fi
source "$VENV_DIR/bin/activate"
python -m pip install --upgrade pip
pip install -r requirements.txt
echo "[ok] server deps installed in $VENV_DIR"

99
scripts/pdf_stats.py Normal file
View File

@@ -0,0 +1,99 @@
#!/usr/bin/env python3
import argparse
import json
import os
import re
from pathlib import Path
def detect_hangul_ratio(text: str) -> float:
han = len(re.findall(r"[\u3131-\u318E\uAC00-\uD7A3]", text))
total = max(len(text), 1)
return han / total
def ensure_dir(path: Path) -> None:
if not path.exists():
path.mkdir(parents=True, exist_ok=True)
def main() -> None:
parser = argparse.ArgumentParser(description="Extract full text from PDF and estimate token count")
parser.add_argument("pdf", nargs="?", help="Path to PDF; if omitted, first PDF in repo root is used")
parser.add_argument("--outdir", default="data", help="Output directory for extracted text")
args = parser.parse_args()
repo_root = Path(os.getcwd())
if args.pdf:
pdf_path = Path(args.pdf)
else:
# pick the first PDF in repo root
cands = sorted(repo_root.glob("*.pdf"))
if not cands:
print("{}")
return
pdf_path = cands[0]
# Lazy import with helpful error if missing
try:
from pypdf import PdfReader
except Exception as e:
raise SystemExit(
"pypdf가 설치되어 있지 않습니다. 가상환경 생성 후 'pip install pypdf tiktoken'을 실행하세요."
)
# Tokenizer
try:
import tiktoken
enc = tiktoken.get_encoding("cl100k_base")
def count_tokens(s: str) -> int:
return len(enc.encode(s))
tokenizer = "tiktoken(cl100k_base)"
except Exception:
def count_tokens(s: str) -> int:
# fallback heuristic
return int(len(s) / 3.3)
tokenizer = "heuristic_div_3.3"
reader = PdfReader(str(pdf_path))
num_pages = len(reader.pages)
# Full extraction
all_text_parts = []
for i in range(num_pages):
try:
page_text = reader.pages[i].extract_text() or ""
except Exception:
page_text = ""
all_text_parts.append(page_text)
full_text = "\n\n".join(all_text_parts).strip()
# Stats
chars = len(full_text)
tokens = count_tokens(full_text)
hangul_ratio = detect_hangul_ratio(full_text)
size_bytes = pdf_path.stat().st_size
# Save text
outdir = Path(args.outdir)
ensure_dir(outdir)
txt_name = pdf_path.stem + ".txt"
out_txt = outdir / txt_name
out_txt.write_text(full_text, encoding="utf-8")
result = {
"pdf": str(pdf_path),
"pages": num_pages,
"size_bytes": size_bytes,
"chars": chars,
"tokens": tokens,
"hangul_ratio": round(hangul_ratio, 4),
"tokenizer": tokenizer,
"text_path": str(out_txt),
}
print(json.dumps(result, ensure_ascii=False))
if __name__ == "__main__":
main()

16
scripts/venv_setup.sh Executable file
View File

@@ -0,0 +1,16 @@
#!/usr/bin/env bash
set -euo pipefail
VENV_DIR=".venv"
if [ ! -d "$VENV_DIR" ]; then
python3 -m venv "$VENV_DIR"
fi
source "$VENV_DIR/bin/activate"
python -m pip install --upgrade pip
pip install pypdf tiktoken
echo "[ok] venv ready at $VENV_DIR"

21
server/config.py Normal file
View File

@@ -0,0 +1,21 @@
from __future__ import annotations
import os
from dataclasses import dataclass
@dataclass(frozen=True)
class Settings:
ollama_host: str = os.getenv("OLLAMA_HOST", "http://localhost:11434")
base_model: str = os.getenv("BASE_MODEL", "qwen2.5:7b-instruct")
boost_model: str = os.getenv("BOOST_MODEL", "qwen2.5:14b-instruct")
embedding_model: str = os.getenv("EMBEDDING_MODEL", "nomic-embed-text")
index_path: str = os.getenv("INDEX_PATH", "data/index.jsonl")
# Paperless (user will provide API details)
paperless_base_url: str = os.getenv("PAPERLESS_BASE_URL", "")
paperless_token: str = os.getenv("PAPERLESS_TOKEN", "")
settings = Settings()

73
server/index_store.py Normal file
View File

@@ -0,0 +1,73 @@
from __future__ import annotations
import json
from dataclasses import dataclass
from pathlib import Path
from typing import List, Tuple
import math
def cosine_similarity(vec_a: List[float], vec_b: List[float]) -> float:
if not vec_a or not vec_b or len(vec_a) != len(vec_b):
return 0.0
dot = sum(a * b for a, b in zip(vec_a, vec_b))
na = math.sqrt(sum(a * a for a in vec_a))
nb = math.sqrt(sum(b * b for b in vec_b))
if na == 0.0 or nb == 0.0:
return 0.0
return dot / (na * nb)
@dataclass
class IndexRow:
id: str
text: str
vector: List[float]
source: str
class JsonlIndex:
def __init__(self, path: str) -> None:
self.path = Path(path)
self.rows: List[IndexRow] = []
self._load()
def _load(self) -> None:
self.rows.clear()
if not self.path.exists():
return
with self.path.open("r", encoding="utf-8") as f:
for line in f:
if not line.strip():
continue
obj = json.loads(line)
self.rows.append(IndexRow(
id=obj["id"],
text=obj["text"],
vector=obj["vector"],
source=obj.get("source", "")
))
def search(self, query_vec: List[float], top_k: int = 5) -> List[Tuple[IndexRow, float]]:
scored: List[Tuple[IndexRow, float]] = []
for row in self.rows:
score = cosine_similarity(query_vec, row.vector)
scored.append((row, score))
scored.sort(key=lambda x: x[1], reverse=True)
return scored[:top_k]
def append(self, new_rows: List[IndexRow]) -> int:
if not new_rows:
return 0
self.path.parent.mkdir(parents=True, exist_ok=True)
with self.path.open("a", encoding="utf-8") as f:
for r in new_rows:
obj = {"id": r.id, "text": r.text, "vector": r.vector, "source": r.source}
f.write(json.dumps(obj, ensure_ascii=False) + "\n")
self.rows.extend(new_rows)
return len(new_rows)
def reload(self) -> int:
self._load()
return len(self.rows)

144
server/main.py Normal file
View File

@@ -0,0 +1,144 @@
from __future__ import annotations
from fastapi import FastAPI, HTTPException
from pydantic import BaseModel
from typing import List, Dict, Any
from .config import settings
from .ollama_client import OllamaClient
from .index_store import JsonlIndex
app = FastAPI(title="Local AI Server", version="0.1.0")
ollama = OllamaClient(settings.ollama_host)
index = JsonlIndex(settings.index_path)
class ChatRequest(BaseModel):
model: str | None = None
messages: List[Dict[str, str]]
use_rag: bool = True
top_k: int = 5
force_boost: bool = False
options: Dict[str, Any] | None = None
class SearchRequest(BaseModel):
query: str
top_k: int = 5
class UpsertRow(BaseModel):
id: str
text: str
source: str | None = None
class UpsertRequest(BaseModel):
rows: List[UpsertRow]
embed: bool = True
model: str | None = None
batch: int = 16
@app.get("/health")
def health() -> Dict[str, Any]:
return {
"status": "ok",
"base_model": settings.base_model,
"boost_model": settings.boost_model,
"embedding_model": settings.embedding_model,
"index_loaded": len(index.rows) if index else 0,
}
@app.post("/search")
def search(req: SearchRequest) -> Dict[str, Any]:
if not index.rows:
return {"results": []}
qvec = ollama.embeddings(settings.embedding_model, req.query)
results = index.search(qvec, top_k=req.top_k)
return {
"results": [
{"id": r.id, "score": float(score), "text": r.text[:400], "source": r.source}
for r, score in results
]
}
@app.post("/chat")
def chat(req: ChatRequest) -> Dict[str, Any]:
model = req.model
if not model:
# 라우팅: 메시지 길이/force_boost 기준 간단 분기
total_chars = sum(len(m.get("content", "")) for m in req.messages)
model = settings.boost_model if (req.force_boost or total_chars > 2000) else settings.base_model
context_docs: List[str] = []
if req.use_rag and index.rows:
q = "\n".join([m.get("content", "") for m in req.messages if m.get("role") == "user"]).strip()
if q:
qvec = ollama.embeddings(settings.embedding_model, q)
hits = index.search(qvec, top_k=req.top_k)
context_docs = [r.text for r, _ in hits]
sys_prompt = ""
if context_docs:
sys_prompt = (
"당신은 문서 기반 비서입니다. 제공된 컨텍스트만 신뢰하고, 모르면 모른다고 답하세요.\n\n"
+ "\n\n".join(f"[DOC {i+1}]\n{t}" for i, t in enumerate(context_docs))
)
messages: List[Dict[str, str]] = []
if sys_prompt:
messages.append({"role": "system", "content": sys_prompt})
messages.extend(req.messages)
try:
resp = ollama.chat(model, messages, stream=False, options=req.options)
return {"model": model, "response": resp}
except Exception as e:
raise HTTPException(status_code=500, detail=str(e))
@app.post("/index/upsert")
def index_upsert(req: UpsertRequest) -> Dict[str, Any]:
try:
if not req.rows:
return {"added": 0}
model = req.model or settings.embedding_model
new_rows = []
for r in req.rows:
vec = ollama.embeddings(model, r.text) if req.embed else []
new_rows.append({
"id": r.id,
"text": r.text,
"vector": vec,
"source": r.source or "api",
})
# convert to IndexRow and append
from .index_store import IndexRow
to_append = [IndexRow(**nr) for nr in new_rows]
added = index.append(to_append)
return {"added": added}
except Exception as e:
raise HTTPException(status_code=500, detail=f"index_upsert_error: {e}")
@app.post("/index/reload")
def index_reload() -> Dict[str, Any]:
total = index.reload()
return {"total": total}
# Paperless webhook placeholder (to be wired with user-provided details)
class PaperlessHook(BaseModel):
document_id: int
title: str | None = None
tags: List[str] | None = None
@app.post("/paperless/hook")
def paperless_hook(hook: PaperlessHook) -> Dict[str, Any]:
# NOTE: 확장 지점 - paperless API를 조회하여 문서 텍스트/메타데이터를 받아
# scripts/embed_ollama.py와 동일 로직으로 인덱스를 업데이트할 수 있습니다.
return {"status": "ack", "document_id": hook.document_id}

29
server/ollama_client.py Normal file
View File

@@ -0,0 +1,29 @@
from __future__ import annotations
import requests
from typing import List, Dict, Any
class OllamaClient:
def __init__(self, host: str) -> None:
host = host.strip()
if not host.startswith("http://") and not host.startswith("https://"):
host = "http://" + host
self.host = host.rstrip("/")
def embeddings(self, model: str, text: str) -> List[float]:
url = f"{self.host}/api/embeddings"
resp = requests.post(url, json={"model": model, "prompt": text}, timeout=120)
resp.raise_for_status()
data = resp.json()
return data["embedding"]
def chat(self, model: str, messages: List[Dict[str, str]], stream: bool = False, options: Dict[str, Any] | None = None) -> Dict[str, Any]:
url = f"{self.host}/api/chat"
payload: Dict[str, Any] = {"model": model, "messages": messages, "stream": stream}
if options:
payload["options"] = options
resp = requests.post(url, json=payload, timeout=600)
resp.raise_for_status()
return resp.json()