コンパイルされたコードとしての知識: LLM Wiki に向けて
2026年の公開議論が理想像に名前を付けました。私たちはその前から近いものを作っていました。出したもの、外したこと、まだ難しいことをまとめます。
Specify チーム約12分
1. アイデア
LLM wiki は知識の台帳仕事を質問より前へ寄せる賭けです。
台帳は読み書きより退屈で、LLM は適切な UI があれば得意です。
2. Naive RAG の不足
埋め込みチャンクを取るだけでは、チーム資産としての体感が遅れます。
私たちも検索を使います。
3. 我々にとって「ingest のコンパイル」
質問の前にインデックスが用意されることです。オントロジー併合を製品として売りません。
onWorkspaceContentChanged(doc):
chunks = chunk(doc)
vectors = embed(chunks)
index.upsert(workspaceId, vectors)4. たどり着いた構成
Sources Index / Embed Retrieve Agent ┌──────────┐ ┌─────────────┐ ┌──────────┐ ┌─────────┐ │ GitHub │ ingest │ Workspace │ query │ Bedrock │ tool │ Claude │ │ Notion │────────►│ docs/chunks │───────►│ KB RAG │──────►│ + tabs │ │ Web │ │ (vectors) │ │ chunks │ │ context │ └──────────┘ └─────────────┘ └──────────┘ └─────────┘
5. まだ解けていない三つ
引用 vs 合成
チャンクがあっても一般化しすぎることがあります。
古いインデックス
ドキュメントは変わるのに埋め込みが遅れる。
権限 × 検索範囲
ワークスペース境界はあるが細かい ACL は難しい。
6. 驚いたこと
三つ目のソースがつながったあたりから背景説明が減ります。