Logo
Explore Help
Register Sign In
hyungi/gpu-services
1
0
Fork 0
You've already forked gpu-services
Code Issues Pull Requests Actions Packages Projects Releases Wiki Activity
Files
26ccdb0f5e2b14b362c058d9a2e6824102f05232
gpu-services/nanoclaude/services
History
Hyungi Ahn 26ccdb0f5e fix: Gemma route 시 대화 이력 전달 — 컨텍스트 단절 해결
reasoner_messages에 conversation_store의 최근 10개 메시지 포함.
"더 자세히 설명해줘" 같은 후속 질문이 이전 컨텍스트를 잇도록.

Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
2026-04-07 08:29:05 +09:00
..
__init__.py
feat: NanoClaude Phase 1 — 비동기 job 기반 AI Gateway 코어 구현
2026-04-06 11:12:04 +09:00
backend_registry.py
feat: MLX /status API 통합 — GPU 무접촉 부하 측정
2026-04-07 08:06:44 +09:00
conversation.py
feat: 이드 도구 확장 — 캘린더/메일/문서 연동 (read-only + 캘린더 생성 확인)
2026-04-06 13:39:15 +09:00
job_manager.py
fix: 이메일 멀티 폴더 조회 + Synology 무응답 방지
2026-04-06 14:38:35 +09:00
job_queue.py
feat: NanoClaude Phase 2 — EXAONE→Gemma 파이프라인, 큐, 상태 API
2026-04-06 12:04:15 +09:00
model_adapter.py
feat: MLX /status API 통합 — GPU 무접촉 부하 측정
2026-04-07 08:06:44 +09:00
state_stream.py
feat: NanoClaude Phase 1 — 비동기 job 기반 AI Gateway 코어 구현
2026-04-06 11:12:04 +09:00
synology_sender.py
fix: Synology Chat rate limit 대응 — 최소 1.5초 간격 + 재시도
2026-04-06 15:05:16 +09:00
worker.py
fix: Gemma route 시 대화 이력 전달 — 컨텍스트 단절 해결
2026-04-07 08:29:05 +09:00
Powered by Gitea Version: 1.25.5 Page: 60ms Template: 6ms
English
Bahasa Indonesia Deutsch English Español Français Gaeilge Italiano Latviešu Magyar nyelv Nederlands Polski Português de Portugal Português do Brasil Suomi Svenska Türkçe Čeština Ελληνικά Български Русский Українська فارسی മലയാളം 日本語 简体中文 繁體中文(台灣) 繁體中文(香港) 한국어
Licenses API