コンパイルされたコードとしての知識: LLM Wiki に向けて

2026年の公開議論が理想像に名前を付けました。私たちはその前から近いものを作っていました。出したもの、外したこと、まだ難しいことをまとめます。

Specify チーム約12分

1. アイデア

LLM wiki は知識の台帳仕事を質問より前へ寄せる賭けです。

台帳は読み書きより退屈で、LLM は適切な UI があれば得意です。

2. Naive RAG の不足

埋め込みチャンクを取るだけでは、チーム資産としての体感が遅れます。

私たちも検索を使います。

3. 我々にとって「ingest のコンパイル」

質問の前にインデックスが用意されることです。オントロジー併合を製品として売りません。

onWorkspaceContentChanged(doc):
    chunks   = chunk(doc)
    vectors  = embed(chunks)
    index.upsert(workspaceId, vectors)

4. たどり着いた構成

  Sources              Index / Embed           Retrieve           Agent
  ┌──────────┐         ┌─────────────┐         ┌──────────┐       ┌─────────┐
  │ GitHub   │ ingest  │ Workspace   │  query │ Bedrock  │ tool  │ Claude  │
  │ Notion   │────────►│ docs/chunks │───────►│ KB RAG   │──────►│ + tabs  │
  │ Web      │         │ (vectors)   │        │ chunks   │       │ context │
  └──────────┘         └─────────────┘        └──────────┘       └─────────┘
Specify 現状: ドキュメント + KB RAG + エージェント

5. まだ解けていない三つ

引用 vs 合成

チャンクがあっても一般化しすぎることがあります。

古いインデックス

ドキュメントは変わるのに埋め込みが遅れる。

権限 × 検索範囲

ワークスペース境界はあるが細かい ACL は難しい。

6. 驚いたこと

三つ目のソースがつながったあたりから背景説明が減ります。

7. 試す

Specify でワークスペース・RAG・エージェントを試せます。

無料で始める·製品概要