오늘도 공부
안드레이 카파시가 제안한 ‘LLM Wiki’ 본문
AI를 검색 도구로만 쓰지 말고, 지식이 쌓이는 시스템으로 바꾸는 법
솔직히 많은 사람이 아직도 AI를 “똑똑한 검색창”처럼 씁니다.
질문 하나 던지고, 답을 받고, 창을 닫습니다.
그다음 비슷한 주제가 나오면 또 처음부터 묻습니다.
그러면 AI는 다시 자료를 뒤지고, 다시 요약하고, 다시 설명합니다.
문제는 이 과정에서 지식이 축적되지 않는다는 것입니다.
대화는 끝나면 흩어지고, 생각은 파일로 남지 않고, 연결은 형성되지 않습니다.
최근 안드레이 카파시가 공개한 LLM Wiki는 바로 이 문제를 겨냥한 패턴입니다. 이 문서는 특정 앱 소개가 아니라, LLM 에이전트에게 그대로 넘겨서 자기만의 지식 시스템을 만들 수 있게 설계된 “아이디어 파일”에 가깝습니다. (Gist)
https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f
llm-wiki
llm-wiki. GitHub Gist: instantly share code, notes, and snippets.
gist.github.com
왜 지금 방식으로는 계속 제자리걸음일까
지금 흔히 쓰는 방식은 대체로 “필요할 때마다 다시 꺼내 읽는” 구조입니다.
파일을 넣어두고 질문하면, AI가 그때그때 관련 내용을 찾아 조합해 답합니다.
이 방식은 편합니다.
하지만 한계도 분명합니다.
같은 주제에 대해 10번 물어보면, AI는 10번 비슷한 재탐색을 합니다.
문서 5개를 함께 봐야 풀리는 질문이면, 매번 다시 퍼즐을 맞춥니다.
질문이 끝난 뒤 그 결과가 다음 탐색의 자산으로 자동 축적되지도 않습니다.
카파시가 제안한 방식은 여기서 방향을 바꿉니다.
질문할 때마다 원본을 다시 긁어오는 대신, LLM이 원본을 읽어 지속적으로 관리되는 마크다운 위키를 만들고 유지합니다. gist는 이 방식을 “raw 문서 위에 놓인, 구조화되고 상호 연결된 지속 위키”로 설명합니다. (Gist)
핵심은 Obsidian이 아니라 ‘3층 구조’다
이 아이디어를 Obsidian 팁 정도로 이해하면 반만 본 겁니다.
gist의 핵심은 도구보다 구조에 있습니다.
1) Raw sources
첫 번째 층은 원본 자료입니다.
기사, 논문, 이미지, 데이터 파일 같은 것들을 모아두는 레이어입니다.
여기서 중요한 원칙은 하나입니다.
원본은 불변(immutable) 이어야 합니다.
LLM은 읽기만 하고 수정하지 않습니다.
이 레이어가 진실의 기준점이 됩니다. (Gist)
2) The wiki
두 번째 층은 AI가 직접 쓰는 위키입니다.
요약 페이지, 개념 페이지, 인물 페이지, 비교 문서, 종합 문서 같은 마크다운 파일들이 여기에 쌓입니다.
새 자료가 들어오면 AI는 그 자료를 한 번 읽고 끝내지 않습니다.
기존 위키를 갱신하고, 관련 페이지를 연결하고, 서로 충돌하는 주장도 반영하면서 전체 구조를 업데이트합니다. gist는 하나의 새 소스가 10~15개 페이지를 건드릴 수 있다고 설명합니다. (Gist)
3) The schema
세 번째 층은 규칙 파일입니다.
Claude Code라면 CLAUDE.md, Codex라면 AGENTS.md 같은 형태가 됩니다.
이 파일은 “위키를 어떤 구조로 만들지”, “새 자료를 넣으면 어떤 순서로 처리할지”, “질문을 받으면 어떤 페이지를 우선 읽을지” 같은 운영 규칙을 정의합니다.
즉, 이 파일이 있어야 LLM이 그냥 대답만 하는 챗봇이 아니라, 규칙적으로 움직이는 위키 관리자가 됩니다. (Gist)
이 방식이 흥미로운 이유: 질문도 자산이 된다
보통 AI와의 대화는 대화창 안에서 끝납니다.
하지만 LLM Wiki 방식에서는 질문 결과도 다시 위키에 편입될 수 있습니다.
예를 들어 어떤 주제 비교표를 만들었다고 해봅시다.
기존 방식에서는 그 표가 채팅 기록 속에 묻힙니다.
하지만 이 구조에서는 그 비교표를 새 마크다운 페이지로 저장해, 다음 질문의 출발점으로 삼을 수 있습니다.
gist도 이 점을 분명히 말합니다.
좋은 답변은 채팅에 흩어지게 두지 말고, 위키에 새 페이지로 저장해 축적하라는 것입니다.
즉, 소스만 축적되는 것이 아니라 질문과 분석 결과까지 누적됩니다. (Gist)
검색보다 ‘지식 컴파일’에 가깝다
이 방식이 인상적인 이유는, LLM을 단순 검색 보조가 아니라 지식 컴파일러처럼 쓰기 때문입니다.
원본 자료를 읽고
→ 핵심 내용을 추출하고
→ 기존 문서와 연결하고
→ 충돌을 반영하고
→ 인덱스를 갱신하고
→ 나중에 더 빨리 탐색할 수 있도록 구조를 정리합니다.
gist에는 index.md와 log.md 같은 파일도 제안됩니다.
index.md는 위키 전체를 탐색하기 위한 카탈로그이고, log.md는 어떤 자료가 언제 들어왔고 어떤 질의와 정리가 있었는지 시간순으로 남기는 기록입니다. moderate scale에서는 이런 구조만으로도 임베딩 기반 RAG 인프라 없이 꽤 잘 작동한다고 설명합니다. (Gist)
Obsidian은 왜 자꾸 함께 언급될까
Obsidian은 이 아이디어의 본질은 아니지만, 실제 운영 도구로는 꽤 잘 맞습니다.
이유는 단순합니다.
브라우저 기사나 웹페이지를 마크다운으로 가져오기 쉬운 Web Clipper가 있고,
마크다운 파일들을 링크 중심으로 볼 수 있는 Graph View가 있고,
Dataview 같은 플러그인으로 메타데이터를 정리하기도 좋기 때문입니다.
gist도 Obsidian Web Clipper, Graph View, Dataview, Marp 등을 유용한 도구로 소개합니다. 동시에 위키의 본체는 결국 git으로 관리되는 마크다운 파일 묶음이라고 못 박습니다. (Gist)
즉, 정리하면 이렇습니다.
본질: AI가 유지하는 마크다운 위키
도구: Obsidian은 그것을 보기 좋게 수집·탐색·시각화하는 선택지 중 하나
왜 인간은 이런 시스템을 오래 못 굴렸을까
사실 개인 지식 관리가 실패하는 이유는 늘 비슷합니다.
읽는 건 할 수 있습니다.
메모도 가끔 합니다.
하지만 시간이 지나면 못 버팁니다.
- 링크를 다시 걸고
- 관련 페이지를 갱신하고
- 오래된 요약을 고치고
- 모순을 표시하고
- 빠진 개념 페이지를 추가하는 일
이런 유지보수 잡무가 너무 많기 때문입니다.
gist는 바로 이 지점을 찌릅니다.
지식베이스 운영의 진짜 비용은 “읽기”보다 “장부 정리(bookkeeping)”에 가깝고, 인간은 그 부담이 가치보다 빨리 커지면 결국 포기한다고 봅니다. 반면 LLM은 여러 페이지를 한 번에 수정하고, 교차 참조를 갱신하고, 위키의 일관성을 맞추는 작업을 비교적 잘 처리합니다. (Gist)
오늘 바로 시작하려면 이렇게 하면 된다
복잡하게 시작할 필요는 없습니다.
1. 주제 하나만 정한다
너무 넓게 잡지 말고 한 주제로 시작하는 게 좋습니다.
예를 들면:
- 한국어 교육 문법 정리
- 특정 산업 리서치
- 투자 공부
- 제품 아이디어 수집
- 논문 읽기 노트
2. raw/ 폴더를 만든다
웹 기사, PDF, 캡처 이미지, 노트 등을 넣습니다.
중요한 건 정교한 분류보다 원본 보존입니다. (Gist)
3. 규칙 파일 하나를 만든다
CLAUDE.md 또는 AGENTS.md에 아래 정도만 써도 출발 가능합니다.
- 새 자료가 들어오면 요약 페이지를 만든다
- 관련 개념 페이지가 있으면 링크한다
- index.md를 갱신한다
- 질문 결과 중 가치 있는 것은 새 페이지로 저장한다
- 오래된 주장과 충돌하면 표시한다
이렇게만 해도 챗봇이 아니라 운영자처럼 움직이기 시작합니다. (Gist)
4. 처음엔 자료 3개만 넣는다
처음부터 100개 넣지 마세요.
기사 3개, 논문 2개 정도로 시작해서 AI가 어떤 식으로 위키를 쓰는지 보는 편이 낫습니다.
카파시의 gist도 구체적인 구현체를 강요하지 않습니다.
디렉터리 구조, 페이지 형식, 검색 툴은 도메인과 취향에 맞게 조정하라고 적고 있습니다. (Gist)
이 방식이 특히 잘 맞는 분야
이 패턴은 “자료가 시간이 지나며 쌓이는 분야”에 특히 강합니다.
- 장기 리서치
- 시험 공부
- 독서 노트
- 업무 문서 축적
- 회의 기록과 프로젝트 히스토리
- 여행 조사
- 취미 분야 딥다이브
gist도 personal, research, book reading, team/business, trip planning 같은 다양한 활용 예를 직접 제시합니다. (Gist)
마무리
LLM Wiki의 핵심 메시지는 단순합니다.
AI를 매번 새로 불러 쓰는 도구로만 두지 말고,
내 자료와 질문이 시간이 갈수록 더 강해지는 구조로 바꾸자.
질문은 휘발되지 않고,
요약은 묻히지 않고,
자료는 연결되고,
탐색 결과는 다음 탐색의 기반이 됩니다.
이건 “메모 앱 추천” 수준의 이야기가 아닙니다.
AI를 쓰는 방식 자체를
일회성 질의응답 → 축적형 지식 운영으로 바꾸자는 제안에 가깝습니다. (Gist)
'AI' 카테고리의 다른 글
| Mini-Coding-Agent: 코딩 에이전트의 핵심만 남긴, 가장 읽기 쉬운 로컬 에이전트 구현 (0) | 2026.04.07 |
|---|---|
| Field Theory CLI: 북마크를 데이터 자산으로 바꾸는 CLI (0) | 2026.04.07 |
| LangGraph와 Claude Code가 바꾸는 개발 방식 (0) | 2026.04.07 |
| RTK: AI 코딩 에이전트의 토큰 낭비를 줄이는 가장 현실적인 방법 (0) | 2026.04.07 |
| 9B 로컬 모델을 멀티스텝 에이전트로 바꾼 10가지 아키텍처 최적화 (0) | 2026.04.07 |
