컴파일된 코드처럼 지식을: LLM Wiki를 향해
2026년 공개 논의가 이상형에 이름을 붙였습니다. 우리는 그전부터 비슷한 방향을 만들고 있었습니다. 배포한 것, 뺀 것, 아직 어려운 것을 정리합니다.
Specify 팀약 12분
1. 아이디어
LLM wiki는 지식 업무의 밑작업을 질문 이전으로 당기자는 내기입니다. 2026년경 공개 논의가 용어와 기대 형태를 정리했습니다.
지식 업무에서 지루한 부분은 읽기나 사고가 아니라 기록 관리이며, 인터페이스만 맞으면 LLM은 그 일을 유난히 잘한다.
Specify는 stateless 비용·문서 사일로 문제에는 맞닿아 있고, 구현 범위는 이상형보다 좁습니다.
2. Naive RAG의 빈틈
흔한 RAG는 임베딩 청크를 질의 때 가져옵니다. 팀 자산으로 체감되려면 인덱스와 워크스페이스 맥락이 쌓이는 경험이 필요합니다.
우리도 검색을 씁니다.
3. 우리에게 ‘ingest 시점 컴파일’의 의미
질문 전에 인덱스가 준비된다는 뜻입니다. 온톨로지 병합 파이프라인을 제품으로 주장하지는 않습니다.
onWorkspaceContentChanged(doc):
chunks = chunk(doc)
vectors = embed(chunks)
index.upsert(workspaceId, vectors) // Bedrock KB / batch
# 제품 경로에 graph.merge 없음4. 도달한 아키텍처
Sources Index / Embed Retrieve Agent ┌──────────┐ ┌─────────────┐ ┌──────────┐ ┌─────────┐ │ GitHub │ ingest │ Workspace │ query │ Bedrock │ tool │ Claude │ │ Notion │────────►│ docs/chunks │───────►│ KB RAG │──────►│ + tabs │ │ Web │ │ (vectors) │ │ chunks │ │ context │ └──────────┘ └─────────────┘ └──────────┘ └─────────┘
히어로의 그래프 목업은 장식이며 라이브 지식 그래프가 아닙니다.
5. 아직 풀지 못한 세 가지
인용 vs 합성
청크는 있는데 모델이 과잉 일반화할 수 있습니다.
오래된 인덱스
문서는 바뀌는데 임베딩이 뒤처질 수 있습니다.
권한 × 검색 범위
워크스페이스 경계는 있으나 세밀한 ACL과 RAG 교차는 여전히 어렵습니다.
6. 놀랐던 점
세 번째 소스가 연결될 때 팀이 배경 설명을 덜 하기 시작합니다.