LLM을 위한 지식 Wiki / Knowledge Base 구축 방법

검색일: 2026-05-14 검색 방법: WebSearch (Gemini CLI 오류로 폴백), WebFetch (공식 문서 직접 확인) 검색 키워드: llms.txt standard 2025 2026, AGENTS.md CLAUDE.md cursorrules, LLM-friendly documentation markdown RAG chunking, MCP filesystem Obsidian wiki agent, GraphRAG LightRAG comparison, Karpathy LLM wiki pattern, Mintlify Docusaurus llms.txt auto-generation


핵심 요약

  1. “LLM-friendly” 문서란 사람뿐 아니라 AI 에이전트가 직접 읽고 작업할 수 있도록 구조화된 문서다. 2025-2026년에는 에이전트가 문서를 직접 파싱·검색·수정하는 것이 표준 워크플로가 됐다.
  2. 세 가지 핵심 레이어: (A) 진입점 표준 파일(llms.txt, AGENTS.md, CLAUDE.md), (B) 문서 작성 컨벤션(마크다운, 청크 친화적 구조), (C) 접근 인프라(MCP 서버, RAG 파이프라인).
  3. 개인 Obsidian/Quartz 위키 기준 가장 효과적인 조합은: Karpathy LLM Wiki 패턴(raw/ + wiki/ + CLAUDE.md) + MCP filesystem 서버 + llms.txt 인덱스 파일이다.

1. 문제 정의 / 배경

왜 “LLM-friendly” knowledge base가 필요한가

2024년까지 문서는 사람을 위해 쓰였다. 2025-2026년에는 패러다임이 바뀌었다:

  • AI 에이전트가 문서의 첫 번째 독자가 됐다. Cursor, Claude Code, Codex, GitHub Copilot 모두 코드베이스와 문서를 직접 읽고 작업한다.
  • HTML은 토큰 낭비: HTML 문서에는 nav 메뉴, CSS 클래스, div 래퍼, 스크립트 태그가 가득하다. 에이전트가 사용할 수 없는 내용이 전체 토큰의 최대 90%를 차지한다. (출처: buildwithfern.com, 2026-03-16)
  • 컨텍스트 창 한계: 대형 문서 사이트를 LLM이 한 번에 처리할 수 없다. 구조화된 진입점이 없으면 에이전트는 올바른 답을 못 찾는다.
  • 에이전트가 wiki를 read + write: 2026년 기준, Karpathy LLM Wiki 패턴이 확산되면서 에이전트가 직접 wiki 페이지를 작성·수정·교차 참조하는 워크플로가 일반화됐다.

일반 위키 vs LLM이 잘 활용하는 문서의 차이

항목일반 위키LLM-friendly 문서
형식HTML, 복잡한 레이아웃순수 Markdown
구조네비게이션 중심시맨틱 청크 중심
메타데이터없거나 최소frontmatter 필수 (title, description, tags, date)
진입점sitemap.xmlllms.txt (LLM용), AGENTS.md (에이전트용)
섹션 단위페이지 단위개념 단위 (한 섹션 = 한 개념)
링크암묵적 컨텍스트명시적 관계 + wikilink
에이전트 접근크롤러 제한MCP 서버로 직접 접근

2. 방식·표준·기술 전체 지도

A. 새로 등장한 표준 파일들

A-1. llms.txt

정의: 웹사이트 루트 /llms.txt에 위치하는 LLM 전용 진입점 마크다운 파일. Jeremy Howard(Answer.AI 공동창업자)가 2024년 9월 3일 제안.

동작 원리:

  • AI 에이전트가 사이트에 접근할 때 가장 먼저 읽는 파일
  • 복잡한 HTML 파싱 없이 핵심 문서 링크와 설명을 제공
  • robots.txt가 크롤러에게 “여기 들어오지 마라”를 알린다면, llms.txt는 “여기서 시작해라”를 안내

공식 스펙 구조 (llmstxt.org, 2024-09-03):

# 프로젝트명                          ← 필수: H1 한 개
> 한 줄 요약, 이 사이트의 핵심 정보   ← 권장: blockquote
 
## 섹션명
- [페이지명](URL): 설명 텍스트       ← 파일 목록
- [Optional 항목](URL): 짧은 컨텍스트 필요 시 생략 가능

llms.txt vs llms-full.txt:

  • llms.txt: 큐레이션된 인덱스. 진입점과 우선순위 페이지 링크 모음. 대화형 AI 도구용.
  • llms-full.txt: 전체 문서를 하나의 마크다운 파일로 통합. IDE 통합(Cursor 등)용. Anthropic의 경우 481,349 토큰 분량.

채택 현황 (2025-10 기준):

  • BuiltWith 추적 기준 844,000개 이상 사이트 구현 (2025-10-25)
  • Anthropic, Cloudflare, Stripe, Vercel, Cursor, Supabase, LangGraph, Mintlify 등 주요 기업 채택
  • Mintlify가 2024년 11월 전체 호스팅 docs 사이트에 자동 적용하면서 수천 개 사이트 한 번에 확산

한계: 주요 LLM(OpenAI, Google, Anthropic) 크롤러는 현재 이를 의미있게 요청하지 않음. 실질 사용자는 IDE 에이전트(Cursor, Continue, Cline)와 일부 MCP 통합.

공식 URL: https://llmstxt.org/ (2024-09-03) Answer.AI 원본 제안: https://www.answer.ai/posts/2024-09-03-llmstxt.html


A-2. AGENTS.md

정의: 저장소 루트에 위치하는 코딩 에이전트 전용 지침 파일. 2025년 중반 agents.md로 공식 스펙화.

동작 원리:

저장소 루트/
  AGENTS.md     ← 에이전트용 마스터 지침
  CLAUDE.md     ← (선택) AGENTS.md 심링크 또는 별도 Claude 전용 내용
  .cursor/rules/ ← Cursor 전용 상세 규칙

에이전트가 새 세션을 시작하면 가장 먼저 이 파일을 읽어 프로젝트 컨텍스트, 코드 스타일, 금지 사항을 파악한다.

2026년 현황: OpenAI, Google, Sourcegraph, Cursor, Factory, JetBrains, Anthropic 공동 추진. Claude Code, Codex CLI, Cursor, Aider, Devin, GitHub Copilot, Gemini CLI, Windsurf, Amazon Q 모두 네이티브 지원. 사실상의 업계 표준. (출처: blog.buildbetter.ai, 2026-05-13)

모범 구조 (권장 200-500줄):

# 프로젝트 개요
한 단락 설명
 
## 기술 스택
- 언어, 프레임워크, 주요 라이브러리 (버전 명시)
 
## 셋업 명령어
```bash
# 정확한 셸 명령어를 그대로 붙여넣기
npm install && npm run dev

코드 스타일

  • 구체적 규칙 (예: “세미콜론 금지”, “함수명은 camelCase”)

테스트 실행

npm test -- --watch

금지 사항

  • DO NOT use npm or yarn (pnpm만 사용)
  • DO NOT commit directly to main

아키텍처 메모

핵심 설계 결정 사항


**베스트 프랙티스**:
- 명령형 언어 사용: "사용하지 말 것" vs "가능하면 X가 낫다"
- 정확한 셸 명령어 포함 (ROI 최고 섹션)
- 도구 버전 고정 (에이전트가 훈련 데이터 기본값으로 회귀하는 것 방지)
- 코드처럼 관리: 컨벤션 변경 시 함께 업데이트

**공식 URL**: https://agents.md

---

#### A-3. CLAUDE.md

**정의**: Anthropic Claude Code가 프로젝트 루트에서 읽는 지침 파일. 모든 세션 시작 시 자동으로 로드.

**AGENTS.md와의 관계 (2026 권장)**:
```bash
# 멀티-툴 팀의 표준 패턴
ln -s AGENTS.md CLAUDE.md   # CLAUDE.md를 AGENTS.md 심링크로

단일 진실 공급원(AGENTS.md) 유지, 도구별 파일은 참조만.

공식 문서: https://docs.anthropic.com/en/docs/claude-code/memory


A-4. .cursor/rules 와 .cursorrules

레거시 방식: 프로젝트 루트 단일 .cursorrules 파일 (여전히 지원되나 deprecated).

현재 권장 방식: .cursor/rules/ 디렉토리 내 다수의 .mdc 파일 (각각 범위 지정 가능).

.cursor/rules/
  global.mdc         ← 전역 규칙
  typescript.mdc     ← TypeScript 파일에만 적용
  testing.mdc        ← 테스트 파일에만 적용

A-5. robots.txt 대비 llms.txt

파일대상목적위치
robots.txt검색엔진 크롤러접근 제한/허용 규칙사이트 루트
llms.txtLLM / AI 에이전트최적 진입점·구조 안내사이트 루트
sitemap.xml검색엔진전체 URL 목록사이트 루트

B. 문서 작성 컨벤션 (LLM-friendly Markdown)

출처: buildwithfern.com (2026-03-16), Weaviate 블로그, Fern 가이드

B-1. 핵심 원칙

“AI 에이전트는 문서를 원시 데이터로 파싱한다.” — Fern (2026-03-16)

마크다운이 LLM에 최적인 이유: 모든 주요 LLM이 대용량 마크다운 데이터로 훈련됐기 때문. 마크다운 사용 시 HTML 대비 토큰 소비 80-90% 절감.

B-2. 구조 규칙

# 제목 (H1: 파일당 하나만)                    ← H1은 반드시 하나
 
## 주요 섹션 (H2: 상위 개념)                  ← 주요 섹션
### 하위 섹션 (H3: 세부 개념)                 ← 세부 내용
 
각 섹션 = 한 개념 = 독립적으로 이해 가능한 단위  ← 핵심 원칙

청크 친화적 작성 원칙:

  • 각 섹션은 맥락 없이 단독으로 검색됐을 때도 의미가 통해야 한다
  • 핵심 정보를 앞에: 핵심 결론 → 세부사항 → 예시 순서
  • 짧은 단락: 3-5문장 이하
  • 명시적 관계 표현: “X는 Y를 사용한다” (X가 Y를 암시하지 않음)

B-3. Frontmatter 메타데이터

---
title: 명확하고 검색 친화적인 제목
description: 독립적으로 읽혔을 때도 이 문서가 무엇인지 알 수 있는 요약
tags: [tag1, tag2, tag3]
date: YYYY-MM-DD
aliases: [대체 검색어]
---

중요성: RAG 파이프라인이 청크 임베딩 시 메타데이터를 필터링 조건으로 사용. 날짜 없는 문서는 최신 여부 판단 불가.

B-4. 기타 컨벤션

항목권장 방식
코드 블록언어 반드시 명시: ```python, ```bash
약어/전문용어첫 등장 시 풀어쓰기: “RAG(Retrieval-Augmented Generation)“
링크설명적 anchor text: [설정 가이드](url) vs [여기](url)
비교 정보는 표 형태로 요약
리스트나열식 개념은 항목별로 분리
이미지alt 텍스트 반드시 작성

B-5. 고급: Fern의 가시성 태그 (2026-03-16)

<llms-only>
이 내용은 AI 에이전트에게만 표시. 기술적 맥락, 교차 참조 등.
</llms-only>
 
<llms-ignore>
이 마케팅 배너는 AI가 무시. 인간에게만 표시.
</llms-ignore>

C. 검색·인덱싱 측면 (RAG / 임베딩 친화)

출처: firecrawl.dev (2026-02-24), Weaviate, langcopilot.com (2025-10-11)

C-1. 청크 전략 비교 (2026 벤치마크)

전략정확도최적 사용처단점
Recursive Character (512토큰, 10-20% 오버랩)69-89%일반 텍스트, Markdown-
Page-Level0.648 (NVIDIA 벤치마크 최고)PDF, 페이지 단위 문서구조화 문서에만
Semantic Chunking91-92% recall고가치 콘텐츠계산 비용 高, 단편화(평균 43토큰) 위험
Fixed-Size빠름프로토타입의미 경계 무시
MarkdownHeaderTextSplitter구조 보존 최고Markdown 문서-

2026 권장 기본값: 512토큰, 10-20% 오버랩의 Recursive splitting. Markdown이라면 MarkdownHeaderTextSplitter 추가 적용이 단일 최대 개선.

쿼리 유형별 최적 청크 크기:

  • 사실 조회 (날짜, 수치): 256-512 토큰
  • 분석적 질문 (설명, 절차): 1024+ 토큰
  • 혼합 쿼리: 400-512 토큰 (실용적 기본값)

C-2. Markdown 기반 RAG의 장점

# LangChain MarkdownHeaderTextSplitter 예시
from langchain.text_splitter import MarkdownHeaderTextSplitter
 
headers_to_split_on = [
    ("#", "H1"),
    ("##", "H2"),
    ("###", "H3"),
]
splitter = MarkdownHeaderTextSplitter(headers_to_split_on=headers_to_split_on)
chunks = splitter.split_text(markdown_content)
# 각 청크에 헤더 계층이 메타데이터로 자동 포함

C-3. Hybrid Search (2025-2026 표준)

순수 벡터 검색보다 BM25(키워드) + 벡터 검색 조합이 일관되게 우수:

  • Weaviate: 네이티브 하이브리드 서치 지원
  • Pinecone: sparse + dense 벡터 조합
  • Chroma: 기본 벡터 검색 (하이브리드는 별도 구현 필요)
  • LanceDB: 로컬 퍼스트, Obsidian 같은 개인 위키에 적합

D. MCP / Agent 연계 방식

출처: cyanheads/obsidian-mcp-server (GitHub), Notion Docs MCP, Verdent.ai (2026)

D-1. MCP filesystem 서버를 통한 wiki 직접 접근

// Claude Code MCP 설정 예시 (claude_desktop_config.json)
{
  "mcpServers": {
    "filesystem": {
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-filesystem", "/path/to/wiki"]
    },
    "obsidian": {
      "command": "npx",
      "args": ["-y", "obsidian-mcp-server"],
      "env": { "OBSIDIAN_API_KEY": "your-key" }
    }
  }
}

D-2. 주요 MCP 서버 비교

MCP 서버방식기능특이사항
@modelcontextprotocol/server-filesystem직접 파일시스템read/write/listObsidian 불필요
cyanheads/obsidian-mcp-serverLocal REST APIread/write/search/frontmatter 수정Obsidian 실행 필요
marcelmarais/obsidian-mcp-server파일시스템기본 CRUD경량
makenotion/notion-mcp-serverNotion API공식 지원, DB 접근Notion 유료 플랜 필요
Memory MCP (cognee 등)그래프 메모리지식 그래프 구축/조회영구 기억

D-3. Agent가 wiki를 Read + Write하는 워크플로

Karpathy LLM Wiki 패턴 (2026-04 기준 가장 확산된 개인 위키 패턴):

raw/                    ← 불변 소스 (논문, URL, PDF, 노트)
  └─ article1.md
  └─ paper1.pdf

wiki/                   ← LLM이 작성·유지하는 지식 페이지
  └─ concepts/
  └─ people/
  └─ tools/
  └─ index.md           ← 카테고리별 카탈로그 + 한 줄 요약
  └─ log.md             ← append-only 작업 로그

CLAUDE.md (또는 AGENTS.md)  ← 스키마 + 에이전트 지침

세 가지 기본 작업:

  1. Ingest: 새 소스 처리 → 기존 wiki 페이지 업데이트 → 새 페이지 생성 → 교차 참조 추가
  2. Query: wiki 검색 → 답변 합성 → 가치 있는 분석 결과는 wiki에 저장
  3. Lint: 모순 감지, 오래된 주장, 고아 페이지, 누락 링크 점검

보안 주의: MCP로 Obsidian 볼트 연결 시 전체 read/write/delete 권한이 에이전트에 부여됨. 반드시 정기 백업 유지. (출처: Verdent.ai, 2026)


E. 정적 사이트 + LLM의 조합

E-1. 플랫폼별 llms.txt 지원 현황 (2026 기준)

플랫폼llms.txtllms-full.txt마크다운 서빙MCP 자동 생성
Mintlify자동 생성자동 생성AI 에이전트에 Markdown 자동 제공가능
Docusaurus플러그인(docusaurus-plugin-llms)지원수동 설정-
MkDocs Material플러그인(mkdocs-llmstxt)지원수동 설정-
Quartz (Obsidian 기반)수동 생성 필요수동 생성 필요기본 Markdown 출력-
Astro Starlight플러그인 존재지원--
GitBook미지원(2026 기준)---

Mintlify 특이사항 (출처: mintlify.com/library/best-llms-txt-platforms):

  • 문서 변경 시마다 llms.txt, llms-full.txt, skill.md 자동 재생성
  • AI 에이전트 요청에 HTML 대신 Markdown 자동 제공 (content negotiation)
  • MCP 서버 자동 생성으로 LLM이 문서와 네이티브 상호작용 가능

E-2. 주요 기업 사례

Anthropic (docs.anthropic.com):

  • llms.txt: 8,364 토큰 (인덱스)
  • llms-full.txt: 481,349 토큰 (전체 API 문서 통합)
  • Mintlify와 공동 개발, GEO(Generative Engine Optimization) 접근법
  • URL: https://docs.anthropic.com/llms.txt

Cloudflare (developers.cloudflare.com):

Stripe (docs.stripe.com):

Vercel:


F. 메모리 / 지식 그래프 방식

F-1. GraphRAG vs LightRAG (2025-2026)

출처: maargasystems.com (2025-05-12), realkm.com (2026-02-19)

항목GraphRAG (Microsoft)LightRAG
출시20242024-10
핵심 방식엔티티 추출 → 커뮤니티 탐지 → LLM 요약이중 레벨 검색 (low-level + high-level)
토큰 효율기준GraphRAG 대비 6,000배 효율 (0.15)
정확도관계적 QA에서 10% 높음다중 홉 추론 우수
응답 속도느림~20-30ms 빠름
적합 사례인과관계, 영향 관계 추적대용량 문서, 개인 위키

2026 트렌드: 단일 방식 대신 벡터 검색 + 지식 그래프 탐색 + 구조화 DB 조회를 결합한 하이브리드 시스템이 표준.

F-2. Obsidian 백링크의 LLM 활용 가치

Obsidian의 [[wikilink]] 구조는:

  • 수동 지식 그래프 구축: 인간이 큐레이션한 의미 관계
  • LLM이 자동 교차 링크 생성 시 참조 구조 역할
  • Karpathy 패턴의 “automated cross-linking” 단계에서 백링크 활용

3. 주요 플레이어 및 표준 현황 (2026 기준)

플레이어밀고 있는 표준파일비고
AnthropicCLAUDE.md, AGENTS.md, llms.txtCLAUDE.md, MCP specClaude Code 네이티브
OpenAIAGENTS.mdAGENTS.md 공동 추진Codex CLI 지원
GoogleGEMINI.md, AGENTS.mdGEMINI.md, AGENTS.mdGemini CLI 지원
Cursor.cursor/rules, AGENTS.md.mdc 파일들.cursorrules deprecated
GitHub CopilotAGENTS.mdcopilot-instructions.md하위 호환
Mintlifyllms.txt, llms-full.txt, skill.md자동 생성docs 플랫폼 리더
WindsurfAGENTS.md.windsurfrules
Amazon QAGENTS.md지원
Notion-Notion MCP (공식) v2.0.0 (2025-09-03 API)

4. 권장 가이드라인

”LLM을 위한 문서 작성” 핵심 원칙

출처: buildwithfern.com (2026-03-16), mintlify.com, deployhq.com

  1. 마크다운 우선: AI는 HTML보다 Markdown을 80-90% 효율적으로 처리
  2. 진입점 명시: llms.txt로 AI 에이전트가 어디서 시작할지 안내
  3. 완전한 타입 정의: API 문서라면 제약 조건, 형식, 필수 속성 전부 명시
  4. 에러 스키마 포함: 200 이외 응답의 전체 에러 스키마 제공
  5. 내용 협상 (Content Negotiation): AI 에이전트 요청 시 HTML 대신 Markdown 제공
  6. AGENTS.md 작성: 에이전트가 처음 읽는 파일에 명령형 지침 작성
  7. 하나의 진실 공급원: AGENTS.md를 마스터로, 도구별 파일은 심링크

CommonMark / Markdown 컨벤션

  • CommonMark(https://commonmark.org/)를 기준으로 작성
  • GFM(GitHub Flavored Markdown) 확장 사용 가능 (표, 체크박스)
  • 중첩 리스트 최소화 (2단계까지)
  • 수평선(---) 남용 금지 (frontmatter 구분자와 혼동)

5. 상황별 권장 구성

Case 1: 개인 wiki (Obsidian + Quartz) — 현재 사용자 상황

vault/
  raw/                          ← 원본 소스 (불변)
  content/
    1. ai/
      3.advanced/
        5. llm_wiki/
          index.md              ← 이 폴더 진입점
    index.md                    ← 전체 vault 인덱스
  CLAUDE.md (또는 AGENTS.md)   ← 에이전트 스키마 파일 (vault 루트)
  llms.txt                      ← Quartz 빌드 출력에 포함 (public/ 루트)

핵심 액션:

  1. vault 루트에 CLAUDE.md 작성 (스키마 + 에이전트 지침)
  2. Quartz 빌드 결과물(public/)에 llms.txt 추가 (정적 파일로 복사)
  3. MCP filesystem 서버 연결 (Claude Code가 vault 직접 read/write)
  4. frontmatter에 title, description, date, tags 필수 포함
  5. 각 노트를 “독립 청크” 원칙으로 작성 (노트 하나 = 개념 하나)

Karpathy 패턴 적용:

  • 3.1.1.*.md 번호 체계 유지하면서 index.md에 카탈로그 관리
  • LLM 에이전트가 log.md에 작업 이력 append-only 기록
  • _meta/taxonomy.md에 태그 분류 체계 관리

Case 2: 팀 내부 wiki (Notion / Confluence)

  • Notion: 공식 Notion MCP(v2.0.0, 2025-09-03) 설치 → 에이전트가 DB 직접 접근
  • Confluence: 마크다운 내보내기 + RAG 파이프라인 구축
  • 팀 저장소 루트에 AGENTS.md 작성 (팀 컨벤션 문서)
  • 페이지 템플릿에 frontmatter 메타데이터 강제

Case 3: 공개 docs 사이트

  • Mintlify 권장: llms.txt + llms-full.txt + skill.md 자동 생성, Markdown 자동 서빙
  • llms.txt 필수 (공개 사이트는 AI 에이전트 접근 빈번)
  • Content negotiation 구현: Accept: text/markdown 헤더 감지 시 Markdown 제공
  • sitemap.xml + llms.txt + robots.txt 3종 세트 유지

Case 4: 코딩 에이전트가 자주 들어오는 저장소

  • AGENTS.md 필수 (200-500줄, 명령형, 정확한 셸 명령어 포함)
  • CLAUDE.md는 AGENTS.md 심링크로
  • .cursor/rules/*.mdc 세분화 (언어별, 기능별)
  • 절대 피해야 할 것들을 명시적 목록으로 (“DO NOT” 섹션)
  • 에이전트 실수 패턴 축적 시 AGENTS.md에 추가

6. 실전 예시

6-1. llms.txt 작성 예시

Anthropic 스타일 (인덱스 + 전체 파일 분리):

# Anthropic Documentation
 
> Anthropic's API documentation, including Claude models, APIs, and developer guides.
 
## Core Guides
- [Introduction](https://docs.anthropic.com/en/docs/intro): Getting started with Claude
- [Models Overview](https://docs.anthropic.com/en/docs/about-claude/models): Latest Claude models and capabilities
- [API Reference](https://docs.anthropic.com/en/api): Complete API documentation
 
## Optional
- [Cookbook](https://github.com/anthropic/anthropic-cookbook): Code examples

Obsidian+Quartz 개인 위키 예시:

# My AI Knowledge Wiki
 
> AI, MCP, Agent 관련 개인 학습 노트. Claude Code, Cursor 등 AI 코딩 에이전트가 참고하는 지식 베이스.
 
## AI 기초
- [AI 개요](https://mysite.com/1-ai/overview): LLM, 에이전트, MCP 전체 구조
- [모델 비교](https://mysite.com/1-ai/models): 주요 모델 특성 비교표
 
## MCP
- [MCP 표준](https://mysite.com/1-ai/mcp/standard): Model Context Protocol 명세
- [MCP 서버 목록](https://mysite.com/1-ai/mcp/servers): 유용한 MCP 서버 모음
 
## Optional
- [원본 링크 모음](https://mysite.com/references): 참고 자료 전체 목록

6-2. Karpathy LLM Wiki용 CLAUDE.md 예시

출처: gist.github.com/karpathy/442a6bf555914893e9891c11519de94f (2026-04-04)

# Wiki Schema
 
## 구조
- raw/: 불변 소스 파일. 절대 수정하지 말 것.
- wiki/: LLM이 관리하는 지식 페이지
  - concepts/: 개념 설명 페이지
  - tools/: 도구·라이브러리 페이지
  - people/: 인물 페이지
  - index.md: 전체 카탈로그
  - log.md: 작업 로그 (append-only)
 
## 페이지 형식
```yaml
---
title: 개념명
type: concept | tool | person
related: [연관 페이지]
date_updated: YYYY-MM-DD
---

작업 규칙

  • ingest: raw/ 파일 읽기 → wiki/ 페이지 생성/업데이트 → log.md에 기록
  • query: wiki/ 검색 → 답변 합성 → 유용한 분석은 wiki/에 저장
  • lint: 모순, 고아 페이지, 오래된 정보 점검

절대 규칙

  • raw/ 파일 수정 금지
  • log.md는 append-only (기존 항목 수정 금지)
  • 출처 불명 정보는 [출처불명] 태그 달기

---

### 6-3. Obsidian + Quartz LLM Wiki 구축 사례

**참고 구현체** (2025-2026):
- `github.com/Ar9av/obsidian-wiki` (Karpathy 패턴 Obsidian 구현)
- `github.com/cyanheads/obsidian-mcp-server` (MCP 서버, read/write/search 지원)
- `github.com/ekadetov/llm-wiki` (Claude Code 플러그인, 영구 지식 베이스)
- `github.com/lucasastorian/llmwiki` (문서 업로드 + MCP 연결 + wiki 자동 생성)

**현재 사용자 위키(Obsidian+Quartz)에 즉시 적용 가능한 것**:
1. vault 루트에 `CLAUDE.md` 생성 (위 예시 참조)
2. `public/llms.txt` 정적 파일 추가 (Quartz 빌드 후 복사 스크립트)
3. Claude Desktop에 filesystem MCP 서버 연결 (vault 경로 지정)
4. 모든 `.md`에 frontmatter(`title`, `description`, `date`, `tags`) 추가
5. `index.md` 파일을 각 폴더에 생성 (폴더 수준 진입점)

---

## 참고 자료

- [llmstxt.org 공식 스펙](https://llmstxt.org/) — 발행일: 2024-09-03
- [Answer.AI 원본 제안 (Jeremy Howard)](https://www.answer.ai/posts/2024-09-03-llmstxt.html) — 발행일: 2024-09-03
- [Mintlify: Real llms.txt examples](https://www.mintlify.com/blog/real-llms-txt-examples) — Anthropic/Stripe/Cloudflare/Vercel 실제 구현
- [Mintlify: What is llms.txt](https://www.mintlify.com/blog/what-is-llms-txt) — 회의론 포함 균형 잡힌 분석
- [Mintlify: Best llms.txt platforms 2026](https://www.mintlify.com/library/best-llms-txt-platforms) — 플랫폼별 지원 현황
- [Fern: How to write LLM-friendly documentation](https://buildwithfern.com/post/how-to-write-llm-friendly-documentation) — 발행일: 2026-03-16
- [BuildBetter.ai: AGENTS.md Complete Guide 2026](https://blog.buildbetter.ai/agents-md-complete-guide-for-engineering-teams-in-2026/) — 발행일: 2026-05-13
- [DeployHQ: CLAUDE.md, AGENTS.md & Copilot Instructions](https://www.deployhq.com/blog/ai-coding-config-files-guide) — 멀티툴 설정 가이드
- [Firecrawl: Best Chunking Strategies for RAG 2026](https://www.firecrawl.dev/blog/best-chunking-strategies-rag) — 발행일: 2026-02-24
- [Weaviate: Chunking Strategies for RAG](https://weaviate.io/blog/chunking-strategies-for-rag) — 공식 벤치마크
- [Karpathy LLM Wiki Gist](https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f) — 발행일: 2026-04-04
- [cyanheads/obsidian-mcp-server (GitHub)](https://github.com/cyanheads/obsidian-mcp-server) — Obsidian MCP 서버 구현
- [Notion MCP 공식 문서](https://developers.notion.com/guides/mcp/overview) — Notion 공식 MCP
- [Maarga Systems: GraphRAG vs LightRAG](https://www.maargasystems.com/2025/05/12/understanding-graphrag-vs-lightrag-a-comparative-analysis-for-enhanced-knowledge-retrieval/) — 발행일: 2025-05-12
- [RealKM: GraphRAG for Knowledge Management](https://realkm.com/2026/02/19/using-graphrag-to-enhance-llm-based-information-retrieval-supporting-knowledge-management-km/) — 발행일: 2026-02-19
- [Codersera: llms.txt Complete Guide May 2026](https://codersera.com/blog/llms-txt-complete-guide-2026/) — 발행일: 2026-05
- [Augment Code: How to Build Your AGENTS.md 2026](https://www.augmentcode.com/guides/how-to-build-agents-md)
- [Obsidian Forum: LLM Wiki Plugin](https://forum.obsidian.md/t/new-plugin-llm-wiki-turn-your-vault-into-a-queryable-knowledge-base-privately/113223)
- [MindStudio: Karpathy LLM Wiki + Claude Code](https://www.mindstudio.ai/blog/andrej-karpathy-llm-wiki-knowledge-base-claude-code)