LLM을 위한 지식 Wiki / Knowledge Base 구축 방법
검색일: 2026-05-14 검색 방법: WebSearch (Gemini CLI 오류로 폴백), WebFetch (공식 문서 직접 확인) 검색 키워드: llms.txt standard 2025 2026, AGENTS.md CLAUDE.md cursorrules, LLM-friendly documentation markdown RAG chunking, MCP filesystem Obsidian wiki agent, GraphRAG LightRAG comparison, Karpathy LLM wiki pattern, Mintlify Docusaurus llms.txt auto-generation
핵심 요약
- “LLM-friendly” 문서란 사람뿐 아니라 AI 에이전트가 직접 읽고 작업할 수 있도록 구조화된 문서다. 2025-2026년에는 에이전트가 문서를 직접 파싱·검색·수정하는 것이 표준 워크플로가 됐다.
- 세 가지 핵심 레이어: (A) 진입점 표준 파일(
llms.txt,AGENTS.md,CLAUDE.md), (B) 문서 작성 컨벤션(마크다운, 청크 친화적 구조), (C) 접근 인프라(MCP 서버, RAG 파이프라인). - 개인 Obsidian/Quartz 위키 기준 가장 효과적인 조합은: Karpathy LLM Wiki 패턴(raw/ + wiki/ + CLAUDE.md) + MCP filesystem 서버 + llms.txt 인덱스 파일이다.
1. 문제 정의 / 배경
왜 “LLM-friendly” knowledge base가 필요한가
2024년까지 문서는 사람을 위해 쓰였다. 2025-2026년에는 패러다임이 바뀌었다:
- AI 에이전트가 문서의 첫 번째 독자가 됐다. Cursor, Claude Code, Codex, GitHub Copilot 모두 코드베이스와 문서를 직접 읽고 작업한다.
- HTML은 토큰 낭비: HTML 문서에는 nav 메뉴, CSS 클래스, div 래퍼, 스크립트 태그가 가득하다. 에이전트가 사용할 수 없는 내용이 전체 토큰의 최대 90%를 차지한다. (출처: buildwithfern.com, 2026-03-16)
- 컨텍스트 창 한계: 대형 문서 사이트를 LLM이 한 번에 처리할 수 없다. 구조화된 진입점이 없으면 에이전트는 올바른 답을 못 찾는다.
- 에이전트가 wiki를 read + write: 2026년 기준, Karpathy LLM Wiki 패턴이 확산되면서 에이전트가 직접 wiki 페이지를 작성·수정·교차 참조하는 워크플로가 일반화됐다.
일반 위키 vs LLM이 잘 활용하는 문서의 차이
| 항목 | 일반 위키 | LLM-friendly 문서 |
|---|---|---|
| 형식 | HTML, 복잡한 레이아웃 | 순수 Markdown |
| 구조 | 네비게이션 중심 | 시맨틱 청크 중심 |
| 메타데이터 | 없거나 최소 | frontmatter 필수 (title, description, tags, date) |
| 진입점 | sitemap.xml | llms.txt (LLM용), AGENTS.md (에이전트용) |
| 섹션 단위 | 페이지 단위 | 개념 단위 (한 섹션 = 한 개념) |
| 링크 | 암묵적 컨텍스트 | 명시적 관계 + wikilink |
| 에이전트 접근 | 크롤러 제한 | MCP 서버로 직접 접근 |
2. 방식·표준·기술 전체 지도
A. 새로 등장한 표준 파일들
A-1. llms.txt
정의: 웹사이트 루트 /llms.txt에 위치하는 LLM 전용 진입점 마크다운 파일. Jeremy Howard(Answer.AI 공동창업자)가 2024년 9월 3일 제안.
동작 원리:
- AI 에이전트가 사이트에 접근할 때 가장 먼저 읽는 파일
- 복잡한 HTML 파싱 없이 핵심 문서 링크와 설명을 제공
- robots.txt가 크롤러에게 “여기 들어오지 마라”를 알린다면, llms.txt는 “여기서 시작해라”를 안내
공식 스펙 구조 (llmstxt.org, 2024-09-03):
# 프로젝트명 ← 필수: H1 한 개
> 한 줄 요약, 이 사이트의 핵심 정보 ← 권장: blockquote
## 섹션명
- [페이지명](URL): 설명 텍스트 ← 파일 목록
- [Optional 항목](URL): 짧은 컨텍스트 필요 시 생략 가능llms.txt vs llms-full.txt:
llms.txt: 큐레이션된 인덱스. 진입점과 우선순위 페이지 링크 모음. 대화형 AI 도구용.llms-full.txt: 전체 문서를 하나의 마크다운 파일로 통합. IDE 통합(Cursor 등)용. Anthropic의 경우 481,349 토큰 분량.
채택 현황 (2025-10 기준):
- BuiltWith 추적 기준 844,000개 이상 사이트 구현 (2025-10-25)
- Anthropic, Cloudflare, Stripe, Vercel, Cursor, Supabase, LangGraph, Mintlify 등 주요 기업 채택
- Mintlify가 2024년 11월 전체 호스팅 docs 사이트에 자동 적용하면서 수천 개 사이트 한 번에 확산
한계: 주요 LLM(OpenAI, Google, Anthropic) 크롤러는 현재 이를 의미있게 요청하지 않음. 실질 사용자는 IDE 에이전트(Cursor, Continue, Cline)와 일부 MCP 통합.
공식 URL: https://llmstxt.org/ (2024-09-03) Answer.AI 원본 제안: https://www.answer.ai/posts/2024-09-03-llmstxt.html
A-2. AGENTS.md
정의: 저장소 루트에 위치하는 코딩 에이전트 전용 지침 파일. 2025년 중반 agents.md로 공식 스펙화.
동작 원리:
저장소 루트/
AGENTS.md ← 에이전트용 마스터 지침
CLAUDE.md ← (선택) AGENTS.md 심링크 또는 별도 Claude 전용 내용
.cursor/rules/ ← Cursor 전용 상세 규칙
에이전트가 새 세션을 시작하면 가장 먼저 이 파일을 읽어 프로젝트 컨텍스트, 코드 스타일, 금지 사항을 파악한다.
2026년 현황: OpenAI, Google, Sourcegraph, Cursor, Factory, JetBrains, Anthropic 공동 추진. Claude Code, Codex CLI, Cursor, Aider, Devin, GitHub Copilot, Gemini CLI, Windsurf, Amazon Q 모두 네이티브 지원. 사실상의 업계 표준. (출처: blog.buildbetter.ai, 2026-05-13)
모범 구조 (권장 200-500줄):
# 프로젝트 개요
한 단락 설명
## 기술 스택
- 언어, 프레임워크, 주요 라이브러리 (버전 명시)
## 셋업 명령어
```bash
# 정확한 셸 명령어를 그대로 붙여넣기
npm install && npm run dev코드 스타일
- 구체적 규칙 (예: “세미콜론 금지”, “함수명은 camelCase”)
테스트 실행
npm test -- --watch금지 사항
- DO NOT use npm or yarn (pnpm만 사용)
- DO NOT commit directly to main
아키텍처 메모
핵심 설계 결정 사항
**베스트 프랙티스**:
- 명령형 언어 사용: "사용하지 말 것" vs "가능하면 X가 낫다"
- 정확한 셸 명령어 포함 (ROI 최고 섹션)
- 도구 버전 고정 (에이전트가 훈련 데이터 기본값으로 회귀하는 것 방지)
- 코드처럼 관리: 컨벤션 변경 시 함께 업데이트
**공식 URL**: https://agents.md
---
#### A-3. CLAUDE.md
**정의**: Anthropic Claude Code가 프로젝트 루트에서 읽는 지침 파일. 모든 세션 시작 시 자동으로 로드.
**AGENTS.md와의 관계 (2026 권장)**:
```bash
# 멀티-툴 팀의 표준 패턴
ln -s AGENTS.md CLAUDE.md # CLAUDE.md를 AGENTS.md 심링크로
단일 진실 공급원(AGENTS.md) 유지, 도구별 파일은 참조만.
공식 문서: https://docs.anthropic.com/en/docs/claude-code/memory
A-4. .cursor/rules 와 .cursorrules
레거시 방식: 프로젝트 루트 단일 .cursorrules 파일 (여전히 지원되나 deprecated).
현재 권장 방식: .cursor/rules/ 디렉토리 내 다수의 .mdc 파일 (각각 범위 지정 가능).
.cursor/rules/
global.mdc ← 전역 규칙
typescript.mdc ← TypeScript 파일에만 적용
testing.mdc ← 테스트 파일에만 적용
A-5. robots.txt 대비 llms.txt
| 파일 | 대상 | 목적 | 위치 |
|---|---|---|---|
| robots.txt | 검색엔진 크롤러 | 접근 제한/허용 규칙 | 사이트 루트 |
| llms.txt | LLM / AI 에이전트 | 최적 진입점·구조 안내 | 사이트 루트 |
| sitemap.xml | 검색엔진 | 전체 URL 목록 | 사이트 루트 |
B. 문서 작성 컨벤션 (LLM-friendly Markdown)
출처: buildwithfern.com (2026-03-16), Weaviate 블로그, Fern 가이드
B-1. 핵심 원칙
“AI 에이전트는 문서를 원시 데이터로 파싱한다.” — Fern (2026-03-16)
마크다운이 LLM에 최적인 이유: 모든 주요 LLM이 대용량 마크다운 데이터로 훈련됐기 때문. 마크다운 사용 시 HTML 대비 토큰 소비 80-90% 절감.
B-2. 구조 규칙
# 제목 (H1: 파일당 하나만) ← H1은 반드시 하나
## 주요 섹션 (H2: 상위 개념) ← 주요 섹션
### 하위 섹션 (H3: 세부 개념) ← 세부 내용
각 섹션 = 한 개념 = 독립적으로 이해 가능한 단위 ← 핵심 원칙청크 친화적 작성 원칙:
- 각 섹션은 맥락 없이 단독으로 검색됐을 때도 의미가 통해야 한다
- 핵심 정보를 앞에: 핵심 결론 → 세부사항 → 예시 순서
- 짧은 단락: 3-5문장 이하
- 명시적 관계 표현: “X는 Y를 사용한다” (X가 Y를 암시하지 않음)
B-3. Frontmatter 메타데이터
---
title: 명확하고 검색 친화적인 제목
description: 독립적으로 읽혔을 때도 이 문서가 무엇인지 알 수 있는 요약
tags: [tag1, tag2, tag3]
date: YYYY-MM-DD
aliases: [대체 검색어]
---중요성: RAG 파이프라인이 청크 임베딩 시 메타데이터를 필터링 조건으로 사용. 날짜 없는 문서는 최신 여부 판단 불가.
B-4. 기타 컨벤션
| 항목 | 권장 방식 |
|---|---|
| 코드 블록 | 언어 반드시 명시: ```python, ```bash |
| 약어/전문용어 | 첫 등장 시 풀어쓰기: “RAG(Retrieval-Augmented Generation)“ |
| 링크 | 설명적 anchor text: [설정 가이드](url) vs [여기](url) |
| 표 | 비교 정보는 표 형태로 요약 |
| 리스트 | 나열식 개념은 항목별로 분리 |
| 이미지 | alt 텍스트 반드시 작성 |
B-5. 고급: Fern의 가시성 태그 (2026-03-16)
<llms-only>
이 내용은 AI 에이전트에게만 표시. 기술적 맥락, 교차 참조 등.
</llms-only>
<llms-ignore>
이 마케팅 배너는 AI가 무시. 인간에게만 표시.
</llms-ignore>C. 검색·인덱싱 측면 (RAG / 임베딩 친화)
출처: firecrawl.dev (2026-02-24), Weaviate, langcopilot.com (2025-10-11)
C-1. 청크 전략 비교 (2026 벤치마크)
| 전략 | 정확도 | 최적 사용처 | 단점 |
|---|---|---|---|
| Recursive Character (512토큰, 10-20% 오버랩) | 69-89% | 일반 텍스트, Markdown | - |
| Page-Level | 0.648 (NVIDIA 벤치마크 최고) | PDF, 페이지 단위 문서 | 구조화 문서에만 |
| Semantic Chunking | 91-92% recall | 고가치 콘텐츠 | 계산 비용 高, 단편화(평균 43토큰) 위험 |
| Fixed-Size | 빠름 | 프로토타입 | 의미 경계 무시 |
| MarkdownHeaderTextSplitter | 구조 보존 최고 | Markdown 문서 | - |
2026 권장 기본값: 512토큰, 10-20% 오버랩의 Recursive splitting. Markdown이라면 MarkdownHeaderTextSplitter 추가 적용이 단일 최대 개선.
쿼리 유형별 최적 청크 크기:
- 사실 조회 (날짜, 수치): 256-512 토큰
- 분석적 질문 (설명, 절차): 1024+ 토큰
- 혼합 쿼리: 400-512 토큰 (실용적 기본값)
C-2. Markdown 기반 RAG의 장점
# LangChain MarkdownHeaderTextSplitter 예시
from langchain.text_splitter import MarkdownHeaderTextSplitter
headers_to_split_on = [
("#", "H1"),
("##", "H2"),
("###", "H3"),
]
splitter = MarkdownHeaderTextSplitter(headers_to_split_on=headers_to_split_on)
chunks = splitter.split_text(markdown_content)
# 각 청크에 헤더 계층이 메타데이터로 자동 포함C-3. Hybrid Search (2025-2026 표준)
순수 벡터 검색보다 BM25(키워드) + 벡터 검색 조합이 일관되게 우수:
- Weaviate: 네이티브 하이브리드 서치 지원
- Pinecone: sparse + dense 벡터 조합
- Chroma: 기본 벡터 검색 (하이브리드는 별도 구현 필요)
- LanceDB: 로컬 퍼스트, Obsidian 같은 개인 위키에 적합
D. MCP / Agent 연계 방식
출처: cyanheads/obsidian-mcp-server (GitHub), Notion Docs MCP, Verdent.ai (2026)
D-1. MCP filesystem 서버를 통한 wiki 직접 접근
// Claude Code MCP 설정 예시 (claude_desktop_config.json)
{
"mcpServers": {
"filesystem": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-filesystem", "/path/to/wiki"]
},
"obsidian": {
"command": "npx",
"args": ["-y", "obsidian-mcp-server"],
"env": { "OBSIDIAN_API_KEY": "your-key" }
}
}
}D-2. 주요 MCP 서버 비교
| MCP 서버 | 방식 | 기능 | 특이사항 |
|---|---|---|---|
| @modelcontextprotocol/server-filesystem | 직접 파일시스템 | read/write/list | Obsidian 불필요 |
| cyanheads/obsidian-mcp-server | Local REST API | read/write/search/frontmatter 수정 | Obsidian 실행 필요 |
| marcelmarais/obsidian-mcp-server | 파일시스템 | 기본 CRUD | 경량 |
| makenotion/notion-mcp-server | Notion API | 공식 지원, DB 접근 | Notion 유료 플랜 필요 |
| Memory MCP (cognee 등) | 그래프 메모리 | 지식 그래프 구축/조회 | 영구 기억 |
D-3. Agent가 wiki를 Read + Write하는 워크플로
Karpathy LLM Wiki 패턴 (2026-04 기준 가장 확산된 개인 위키 패턴):
raw/ ← 불변 소스 (논문, URL, PDF, 노트)
└─ article1.md
└─ paper1.pdf
wiki/ ← LLM이 작성·유지하는 지식 페이지
└─ concepts/
└─ people/
└─ tools/
└─ index.md ← 카테고리별 카탈로그 + 한 줄 요약
└─ log.md ← append-only 작업 로그
CLAUDE.md (또는 AGENTS.md) ← 스키마 + 에이전트 지침
세 가지 기본 작업:
- Ingest: 새 소스 처리 → 기존 wiki 페이지 업데이트 → 새 페이지 생성 → 교차 참조 추가
- Query: wiki 검색 → 답변 합성 → 가치 있는 분석 결과는 wiki에 저장
- Lint: 모순 감지, 오래된 주장, 고아 페이지, 누락 링크 점검
보안 주의: MCP로 Obsidian 볼트 연결 시 전체 read/write/delete 권한이 에이전트에 부여됨. 반드시 정기 백업 유지. (출처: Verdent.ai, 2026)
E. 정적 사이트 + LLM의 조합
E-1. 플랫폼별 llms.txt 지원 현황 (2026 기준)
| 플랫폼 | llms.txt | llms-full.txt | 마크다운 서빙 | MCP 자동 생성 |
|---|---|---|---|---|
| Mintlify | 자동 생성 | 자동 생성 | AI 에이전트에 Markdown 자동 제공 | 가능 |
| Docusaurus | 플러그인(docusaurus-plugin-llms) | 지원 | 수동 설정 | - |
| MkDocs Material | 플러그인(mkdocs-llmstxt) | 지원 | 수동 설정 | - |
| Quartz (Obsidian 기반) | 수동 생성 필요 | 수동 생성 필요 | 기본 Markdown 출력 | - |
| Astro Starlight | 플러그인 존재 | 지원 | - | - |
| GitBook | 미지원(2026 기준) | - | - | - |
Mintlify 특이사항 (출처: mintlify.com/library/best-llms-txt-platforms):
- 문서 변경 시마다 llms.txt, llms-full.txt, skill.md 자동 재생성
- AI 에이전트 요청에 HTML 대신 Markdown 자동 제공 (content negotiation)
- MCP 서버 자동 생성으로 LLM이 문서와 네이티브 상호작용 가능
E-2. 주요 기업 사례
Anthropic (docs.anthropic.com):
llms.txt: 8,364 토큰 (인덱스)llms-full.txt: 481,349 토큰 (전체 API 문서 통합)- Mintlify와 공동 개발, GEO(Generative Engine Optimization) 접근법
- URL: https://docs.anthropic.com/llms.txt
Cloudflare (developers.cloudflare.com):
- 20개 이상 제품별 섹션으로 구성
- 각 제품: Getting Started + Configuration + API Reference + Tutorials
- URL: https://developers.cloudflare.com/llms.txt
Stripe (docs.stripe.com):
- 제품 카테고리별 구성 (Payments, Checkout, Webhooks, Testing)
- 각 링크에 설명 텍스트 포함
- URL: https://docs.stripe.com/llms.txt
Vercel:
- 제품 영역별 그룹, 개발자 진입점 중심 큐레이션 (완전한 사이트맵 X)
- URL: https://vercel.com/docs/llms-full.txt
F. 메모리 / 지식 그래프 방식
F-1. GraphRAG vs LightRAG (2025-2026)
출처: maargasystems.com (2025-05-12), realkm.com (2026-02-19)
| 항목 | GraphRAG (Microsoft) | LightRAG |
|---|---|---|
| 출시 | 2024 | 2024-10 |
| 핵심 방식 | 엔티티 추출 → 커뮤니티 탐지 → LLM 요약 | 이중 레벨 검색 (low-level + high-level) |
| 토큰 효율 | 기준 | GraphRAG 대비 6,000배 효율 (0.15) |
| 정확도 | 관계적 QA에서 10% 높음 | 다중 홉 추론 우수 |
| 응답 속도 | 느림 | ~20-30ms 빠름 |
| 적합 사례 | 인과관계, 영향 관계 추적 | 대용량 문서, 개인 위키 |
2026 트렌드: 단일 방식 대신 벡터 검색 + 지식 그래프 탐색 + 구조화 DB 조회를 결합한 하이브리드 시스템이 표준.
F-2. Obsidian 백링크의 LLM 활용 가치
Obsidian의 [[wikilink]] 구조는:
- 수동 지식 그래프 구축: 인간이 큐레이션한 의미 관계
- LLM이 자동 교차 링크 생성 시 참조 구조 역할
- Karpathy 패턴의 “automated cross-linking” 단계에서 백링크 활용
3. 주요 플레이어 및 표준 현황 (2026 기준)
| 플레이어 | 밀고 있는 표준 | 파일 | 비고 |
|---|---|---|---|
| Anthropic | CLAUDE.md, AGENTS.md, llms.txt | CLAUDE.md, MCP spec | Claude Code 네이티브 |
| OpenAI | AGENTS.md | AGENTS.md 공동 추진 | Codex CLI 지원 |
| GEMINI.md, AGENTS.md | GEMINI.md, AGENTS.md | Gemini CLI 지원 | |
| Cursor | .cursor/rules, AGENTS.md | .mdc 파일들 | .cursorrules deprecated |
| GitHub Copilot | AGENTS.md | copilot-instructions.md | 하위 호환 |
| Mintlify | llms.txt, llms-full.txt, skill.md | 자동 생성 | docs 플랫폼 리더 |
| Windsurf | AGENTS.md | .windsurfrules | |
| Amazon Q | AGENTS.md | 지원 | |
| Notion | - | Notion MCP (공식) v2.0.0 (2025-09-03 API) |
4. 권장 가이드라인
”LLM을 위한 문서 작성” 핵심 원칙
출처: buildwithfern.com (2026-03-16), mintlify.com, deployhq.com
- 마크다운 우선: AI는 HTML보다 Markdown을 80-90% 효율적으로 처리
- 진입점 명시: llms.txt로 AI 에이전트가 어디서 시작할지 안내
- 완전한 타입 정의: API 문서라면 제약 조건, 형식, 필수 속성 전부 명시
- 에러 스키마 포함: 200 이외 응답의 전체 에러 스키마 제공
- 내용 협상 (Content Negotiation): AI 에이전트 요청 시 HTML 대신 Markdown 제공
- AGENTS.md 작성: 에이전트가 처음 읽는 파일에 명령형 지침 작성
- 하나의 진실 공급원: AGENTS.md를 마스터로, 도구별 파일은 심링크
CommonMark / Markdown 컨벤션
- CommonMark(https://commonmark.org/)를 기준으로 작성
- GFM(GitHub Flavored Markdown) 확장 사용 가능 (표, 체크박스)
- 중첩 리스트 최소화 (2단계까지)
- 수평선(
---) 남용 금지 (frontmatter 구분자와 혼동)
5. 상황별 권장 구성
Case 1: 개인 wiki (Obsidian + Quartz) — 현재 사용자 상황
vault/
raw/ ← 원본 소스 (불변)
content/
1. ai/
3.advanced/
5. llm_wiki/
index.md ← 이 폴더 진입점
index.md ← 전체 vault 인덱스
CLAUDE.md (또는 AGENTS.md) ← 에이전트 스키마 파일 (vault 루트)
llms.txt ← Quartz 빌드 출력에 포함 (public/ 루트)
핵심 액션:
- vault 루트에
CLAUDE.md작성 (스키마 + 에이전트 지침) - Quartz 빌드 결과물(
public/)에llms.txt추가 (정적 파일로 복사) - MCP filesystem 서버 연결 (Claude Code가 vault 직접 read/write)
- frontmatter에
title,description,date,tags필수 포함 - 각 노트를 “독립 청크” 원칙으로 작성 (노트 하나 = 개념 하나)
Karpathy 패턴 적용:
3.1.1.*.md번호 체계 유지하면서index.md에 카탈로그 관리- LLM 에이전트가
log.md에 작업 이력 append-only 기록 _meta/taxonomy.md에 태그 분류 체계 관리
Case 2: 팀 내부 wiki (Notion / Confluence)
- Notion: 공식 Notion MCP(v2.0.0, 2025-09-03) 설치 → 에이전트가 DB 직접 접근
- Confluence: 마크다운 내보내기 + RAG 파이프라인 구축
- 팀 저장소 루트에
AGENTS.md작성 (팀 컨벤션 문서) - 페이지 템플릿에 frontmatter 메타데이터 강제
Case 3: 공개 docs 사이트
- Mintlify 권장: llms.txt + llms-full.txt + skill.md 자동 생성, Markdown 자동 서빙
llms.txt필수 (공개 사이트는 AI 에이전트 접근 빈번)- Content negotiation 구현:
Accept: text/markdown헤더 감지 시 Markdown 제공 - sitemap.xml + llms.txt + robots.txt 3종 세트 유지
Case 4: 코딩 에이전트가 자주 들어오는 저장소
AGENTS.md필수 (200-500줄, 명령형, 정확한 셸 명령어 포함)CLAUDE.md는 AGENTS.md 심링크로.cursor/rules/*.mdc세분화 (언어별, 기능별)- 절대 피해야 할 것들을 명시적 목록으로 (“DO NOT” 섹션)
- 에이전트 실수 패턴 축적 시 AGENTS.md에 추가
6. 실전 예시
6-1. llms.txt 작성 예시
Anthropic 스타일 (인덱스 + 전체 파일 분리):
# Anthropic Documentation
> Anthropic's API documentation, including Claude models, APIs, and developer guides.
## Core Guides
- [Introduction](https://docs.anthropic.com/en/docs/intro): Getting started with Claude
- [Models Overview](https://docs.anthropic.com/en/docs/about-claude/models): Latest Claude models and capabilities
- [API Reference](https://docs.anthropic.com/en/api): Complete API documentation
## Optional
- [Cookbook](https://github.com/anthropic/anthropic-cookbook): Code examplesObsidian+Quartz 개인 위키 예시:
# My AI Knowledge Wiki
> AI, MCP, Agent 관련 개인 학습 노트. Claude Code, Cursor 등 AI 코딩 에이전트가 참고하는 지식 베이스.
## AI 기초
- [AI 개요](https://mysite.com/1-ai/overview): LLM, 에이전트, MCP 전체 구조
- [모델 비교](https://mysite.com/1-ai/models): 주요 모델 특성 비교표
## MCP
- [MCP 표준](https://mysite.com/1-ai/mcp/standard): Model Context Protocol 명세
- [MCP 서버 목록](https://mysite.com/1-ai/mcp/servers): 유용한 MCP 서버 모음
## Optional
- [원본 링크 모음](https://mysite.com/references): 참고 자료 전체 목록6-2. Karpathy LLM Wiki용 CLAUDE.md 예시
출처: gist.github.com/karpathy/442a6bf555914893e9891c11519de94f (2026-04-04)
# Wiki Schema
## 구조
- raw/: 불변 소스 파일. 절대 수정하지 말 것.
- wiki/: LLM이 관리하는 지식 페이지
- concepts/: 개념 설명 페이지
- tools/: 도구·라이브러리 페이지
- people/: 인물 페이지
- index.md: 전체 카탈로그
- log.md: 작업 로그 (append-only)
## 페이지 형식
```yaml
---
title: 개념명
type: concept | tool | person
related: [연관 페이지]
date_updated: YYYY-MM-DD
---작업 규칙
- ingest: raw/ 파일 읽기 → wiki/ 페이지 생성/업데이트 → log.md에 기록
- query: wiki/ 검색 → 답변 합성 → 유용한 분석은 wiki/에 저장
- lint: 모순, 고아 페이지, 오래된 정보 점검
절대 규칙
- raw/ 파일 수정 금지
- log.md는 append-only (기존 항목 수정 금지)
- 출처 불명 정보는 [출처불명] 태그 달기
---
### 6-3. Obsidian + Quartz LLM Wiki 구축 사례
**참고 구현체** (2025-2026):
- `github.com/Ar9av/obsidian-wiki` (Karpathy 패턴 Obsidian 구현)
- `github.com/cyanheads/obsidian-mcp-server` (MCP 서버, read/write/search 지원)
- `github.com/ekadetov/llm-wiki` (Claude Code 플러그인, 영구 지식 베이스)
- `github.com/lucasastorian/llmwiki` (문서 업로드 + MCP 연결 + wiki 자동 생성)
**현재 사용자 위키(Obsidian+Quartz)에 즉시 적용 가능한 것**:
1. vault 루트에 `CLAUDE.md` 생성 (위 예시 참조)
2. `public/llms.txt` 정적 파일 추가 (Quartz 빌드 후 복사 스크립트)
3. Claude Desktop에 filesystem MCP 서버 연결 (vault 경로 지정)
4. 모든 `.md`에 frontmatter(`title`, `description`, `date`, `tags`) 추가
5. `index.md` 파일을 각 폴더에 생성 (폴더 수준 진입점)
---
## 참고 자료
- [llmstxt.org 공식 스펙](https://llmstxt.org/) — 발행일: 2024-09-03
- [Answer.AI 원본 제안 (Jeremy Howard)](https://www.answer.ai/posts/2024-09-03-llmstxt.html) — 발행일: 2024-09-03
- [Mintlify: Real llms.txt examples](https://www.mintlify.com/blog/real-llms-txt-examples) — Anthropic/Stripe/Cloudflare/Vercel 실제 구현
- [Mintlify: What is llms.txt](https://www.mintlify.com/blog/what-is-llms-txt) — 회의론 포함 균형 잡힌 분석
- [Mintlify: Best llms.txt platforms 2026](https://www.mintlify.com/library/best-llms-txt-platforms) — 플랫폼별 지원 현황
- [Fern: How to write LLM-friendly documentation](https://buildwithfern.com/post/how-to-write-llm-friendly-documentation) — 발행일: 2026-03-16
- [BuildBetter.ai: AGENTS.md Complete Guide 2026](https://blog.buildbetter.ai/agents-md-complete-guide-for-engineering-teams-in-2026/) — 발행일: 2026-05-13
- [DeployHQ: CLAUDE.md, AGENTS.md & Copilot Instructions](https://www.deployhq.com/blog/ai-coding-config-files-guide) — 멀티툴 설정 가이드
- [Firecrawl: Best Chunking Strategies for RAG 2026](https://www.firecrawl.dev/blog/best-chunking-strategies-rag) — 발행일: 2026-02-24
- [Weaviate: Chunking Strategies for RAG](https://weaviate.io/blog/chunking-strategies-for-rag) — 공식 벤치마크
- [Karpathy LLM Wiki Gist](https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f) — 발행일: 2026-04-04
- [cyanheads/obsidian-mcp-server (GitHub)](https://github.com/cyanheads/obsidian-mcp-server) — Obsidian MCP 서버 구현
- [Notion MCP 공식 문서](https://developers.notion.com/guides/mcp/overview) — Notion 공식 MCP
- [Maarga Systems: GraphRAG vs LightRAG](https://www.maargasystems.com/2025/05/12/understanding-graphrag-vs-lightrag-a-comparative-analysis-for-enhanced-knowledge-retrieval/) — 발행일: 2025-05-12
- [RealKM: GraphRAG for Knowledge Management](https://realkm.com/2026/02/19/using-graphrag-to-enhance-llm-based-information-retrieval-supporting-knowledge-management-km/) — 발행일: 2026-02-19
- [Codersera: llms.txt Complete Guide May 2026](https://codersera.com/blog/llms-txt-complete-guide-2026/) — 발행일: 2026-05
- [Augment Code: How to Build Your AGENTS.md 2026](https://www.augmentcode.com/guides/how-to-build-agents-md)
- [Obsidian Forum: LLM Wiki Plugin](https://forum.obsidian.md/t/new-plugin-llm-wiki-turn-your-vault-into-a-queryable-knowledge-base-privately/113223)
- [MindStudio: Karpathy LLM Wiki + Claude Code](https://www.mindstudio.ai/blog/andrej-karpathy-llm-wiki-knowledge-base-claude-code)