- Modelfile.id-9b 생성: qwen3.5:9b-q8_0 기반, no-think ChatML 템플릿
- 모든 Ollama 호출(8개 노드+2개 Python)에 system: '/no_think' 이중 방어
- Call Haiku/Opus: 이드 페르소나 [자아]/[성격]/[말투]/[응답 원칙]/[기억] 강화
- Call Qwen Response: system 파라미터 분리 + 경량 자아 추가
- Claude API 노드에는 /no_think 미적용
Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
- qwen3.5:9b-q8_0 → id-9b:latest 전체 교체 (워크플로우, Python 스크립트)
- deploy_workflows.sh 생성 (n8n REST API 자동 배포)
- .env.example: CalDAV/IMAP/Karakeep 기본값 수정
- 문서 업데이트: tk_qc_issues 컬렉션, 맥미니 Ollama 기동 안내
Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
- CLAUDE.md: Task Runner VM 샌드박스 제약사항 문서화
- docker-compose.yml: NODE_FUNCTION_ALLOW_BUILTIN 환경변수 추가
- main-chat-pipeline.json: require('http/https/url') 방식으로 전환된 워크플로우 반영
Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
워크플로우 37→42노드 확장:
- /문서등록: 2단계 플로우 (메타데이터 → 텍스트 청킹+임베딩+tk_company 저장)
- /보고서: field_reports DB 집계 → Claude Haiku 보고서 생성
- 현장 리포트: 비전 모델 분석 → Qwen 구조화 → SLA 계산 → DB+벡터 저장
- 응답 경로 통합: 6개 Send/Respond 쌍 → 2개 공유 노드로 정리
Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>