목록AI (264)
오늘도 공부
이 저장소는 완성형 프레임워크를 바로 쓰게 하는 대신, 가장 단순한 채팅 루프에서 출발해 도구 호출, 스킬, 세션 저장, 컨텍스트 압축, 이벤트 버스, 멀티 에이전트, 장기 메모리까지 직접 조립해 보게 만드는 튜토리얼형 프로젝트입니다. (GitHub)요즘 AI 에이전트를 다룰 때 가장 답답한 지점은 “잘 돌아가는 데 왜 그렇게 설계됐는지”가 보이지 않는다는 점입니다. 프레임워크는 빠르게 결과를 내주지만, 구조를 이해하지 못하면 비용이 왜 늘었는지, 컨텍스트가 왜 깨졌는지, 왜 특정 상황에서만 불안정한지 판단하기 어렵습니다. 이 저장소는 그 불투명한 중간층을 단계별 코드로 드러냅니다. (GitHub)이 글을 끝까지 읽으면 세 가지가 명확해집니다.첫째, 에이전트가 단순한 LLM 호출이 아니라 세션, 이벤트,..
이 글은 GEOFlow를 이해하기 위해 작성되었습니다.단순히 AI로 글을 생성하는 도구로 보면 이 프로젝트의 핵심을 놓치기 쉽습니다. GEOFlow는 글 생성 자체보다, 콘텐츠 운영의 전체 흐름을 하나의 시스템으로 묶는 것에 더 가깝습니다. 모델 설정, 소재 관리, 작업 실행, 검토, 게시까지를 끊기지 않게 연결하려는 시도입니다. (GitHub)기존의 AI 콘텐츠 운영은 보통 여러 도구에 흩어져 있습니다. 프롬프트는 문서에 따로 저장하고, 제목은 스프레드시트로 관리하고, 생성은 별도 스크립트로 돌리고, 결과는 CMS에 다시 붙여 넣습니다. 이런 구조는 처음에는 빨라 보여도, 작업량이 늘어나면 관리 비용이 급격히 커집니다. GEOFlow는 바로 그 지점을 겨냥합니다. (GitHub)이 글을 끝까지 읽으면 ..
최근 AI 코딩 에이전트는 빠르게 늘어났지만, 실무에서 써보면 금방 한계가 드러납니다. 로컬에서 터미널을 켜 두고 지켜봐야 하고, 중간에 끊기면 다시 상태를 맞춰야 하며, 긴 작업은 요청-응답 수명 안에 가두기 어렵기 때문입니다. (GitHub)Open Agents는 이 문제를 “에이전트를 오래 실행되게 만드는 방법”의 관점에서 다시 설계한 프로젝트입니다. 웹 UI, 워크플로우 기반의 에이전트 실행, 샌드박스 VM, 그리고 GitHub 연동을 한 구조로 묶어, 프롬프트에서 코드 변경과 푸시, PR 생성까지 이어지는 흐름을 만들었습니다. (GitHub)이 글을 끝까지 읽으면 세 가지가 분명해집니다. 왜 기존 AI 코딩 에이전트가 실무에서 피로했는지, Open Agents가 그 문제를 어떤 아키텍처로 풀었는..
이 글은 ralph-orchestrator가 왜 등장했고, 자율 AI 에이전트 워크플로우를 어떻게 더 안정적으로 만들려는지 이해하기 위해 작성되었습니다. 단순히 “에이전트를 계속 돌리는 도구”로 보면 이 프로젝트의 핵심을 놓치게 됩니다. 이 도구가 겨냥하는 문제는 기능 부족이 아니라, 에이전트가 똑똑할수록 오히려 전체 흐름은 더 불안정해질 수 있다는 점입니다. (GitHub)기존 자율 에이전트 방식은 보통 하나의 강한 프롬프트에 많은 책임을 몰아넣습니다. 계획도 세우고, 코드도 짜고, 테스트도 돌리고, 실패 원인도 스스로 해석하게 만듭니다. 처음엔 단순해 보이지만, 작업이 길어질수록 컨텍스트가 비대해지고, 실패 원인이 흐려지고, “됐다고 했는데 실제로는 안 된 상태”가 자주 생깁니다. ralph-orch..
정적인 PSD나 PNG를 가져와서, 복잡한 리깅 작업 없이 빠르게 2D 캐릭터 애니메이션으로 바꾸는 흐름을 설명합니다. 특히 이 도구가 단순한 편집기가 아니라, 레이어 분해된 캐릭터를 실제 애니메이션 파이프라인으로 연결하는 데 초점을 둔 이유를 다룹니다. (GitHub)기존 2D 캐릭터 애니메이션 도구는 크게 두 가지 불편이 있었습니다. 하나는 본 세팅과 파라미터 설계가 무겁다는 점이고, 다른 하나는 AI가 분해해 준 레이어를 실제 애니메이션 가능한 구조로 옮기는 과정이 생각보다 수작업 중심이라는 점입니다. Stretchy Studio는 이 사이를 메우기 위해, 타임라인 중심 편집과 메쉬 변형을 결합하는 방향으로 설계되었습니다. (GitHub)이 글을 끝까지 읽으면 세 가지가 잡힙니다. 왜 이 도구가 기..
“원래는 안 될 것 같은데, 요즘은 됩니다”의 진짜 이유처음 들으면 이상합니다.“27B, 70B, 100B, 심지어 200B가 넘는 모델을고작 16GB VRAM GPU로 돌릴 수 있다.”상식적으로는 말이 안 되는 이야기처럼 보입니다.보통 대형 모델은 모델 전체가 GPU 메모리(VRAM)에 올라가야 실행된다고 알려져 있기 때문입니다.그래서 많은 분들이 이렇게 생각합니다.“아니, 100GB가 넘는 모델이면당연히 VRAM도 그 정도는 있어야 하는 거 아닌가?”네, 최고 속도로 돌리려면 그 말이 맞습니다.하지만 요즘은 꼭 그렇게만 돌리지 않습니다.최근 추론 엔진과 양자화 기술이 발전하면서, 이제는 GPU 메모리만으로 버티는 시대에서 GPU + RAM을 함께 활용하는 시대로 넘어오고 있습니다.쉽게 말하면,예전에는..
대부분의 사람들은 AI를 콘텐츠 제작에 이렇게 쓴다.Claude를 연다“생산성에 대한 링크드인 포스트 써줘”라고 입력한다회사 인턴이 쓴 것 같은 평범한 포스트를 받는다로봇처럼 안 들리게 20분 동안 손본다그리고 플랫폼마다 그걸 또 처음부터 반복한다이건 시스템이 아니다.그냥 단계만 더 많은 잡일이다.문제는 AI가 아니다.문제는 네가 AI에게 브랜드, 독자, 말투, 플랫폼 전략, 그리고 이 모든 요소가 어떻게 연결되는지에 대한 맥락을 전혀 주지 않고 있다는 것이다.매번 새 채팅을 시작할 때마다 기억상실에 걸린 천재를 새로 고용하는 셈이다.해결책: 스킬 그래프가 이 문제를 해결한다.신입 직원을 고용한다고 생각해보자.첫날부터 아무 온보딩도 없이, 문서도 없이, 회사가 어떻게 돌아가는지에 대한 맥락도 없이 바로 ..
RAG vs Agentic RAG 정리1. 한 줄 차이RAG사용자의 질문이 들어오면검색 시스템이 관련 문서를 찾아오고그 결과를 LLM에 붙여서 답하게 하는 방식Agentic RAG단순 검색만 하지 않고에이전트가 계획을 세우고, 필요한 도구를 선택하고, 여러 소스를 순차적으로 탐색한 뒤더 능동적으로 답을 만드는 방식2. 기본 RAG 구조이미지 상단의 흐름은 거의 이렇게 보면 됩니다.동작 흐름사용자가 질문 입력서버가 질문을 검색 시스템에 전달Search가 지식 소스에서 관련 정보 가져옴PDFDatabaseDocumentsCodeWeb SearchAPI검색 결과를 서버가 받음서버가 원래 질문 + 검색된 문맥을 합쳐서 LLM에 전달LLM이 최종 답변 생성특징구조가 단순함빠르고 구현이 쉬움질문 1개 → 검색 1번..
AI 코딩 도구를 쓰다 보면, 가장 먼저 부딪히는 문제는 코드 생성 자체가 아닙니다.오히려 “무엇을 어디까지 만들 것인가”를 구조화하지 못한 상태에서 너무 큰 요구사항을 한 번에 던지는 일이 더 큰 문제입니다.예를 들어 “SaaS 플랫폼 하나 만들어줘” 같은 요청은 그럴듯해 보이지만, 실제 구현 단계로 내려가면 인증, 결제, 대시보드, 외부 연동처럼 서로 다른 성격의 하위 문제들이 섞여 있습니다. (GitHub)deep-project는 바로 이 지점을 다룹니다.이 도구는 모호하고 큰 프로젝트 요구사항을 바로 구현하려 하지 않고, 먼저 인터뷰와 분해 과정을 거쳐 “계획 가능한 단위”로 나누는 데 집중합니다. GitHub - piercelamb/deep-project: Claude Code plugin th..
요즘 음성 합성은 더 이상 실험용 기능이 아닙니다. 팟캐스트, 오디오북, 게임 대사, 숏폼 더빙, AI 캐릭터 음성까지 이미 제작 파이프라인의 한 부분이 되었습니다. 문제는 많은 팀이 여전히 클라우드 TTS에 의존하고 있다는 점입니다. 비용은 계속 누적되고, 샘플 음성과 생성 결과가 외부로 오가며, 서비스 제약도 함께 따라옵니다. (GitHub)Voicebox는 이 문제를 다른 방향에서 풀려는 도구입니다. 핵심은 “좋은 음성 합성을 클라우드 API가 아니라 내 장비에서 직접 처리하자”는 접근입니다. 이 글을 끝까지 읽으면 Voicebox가 왜 등장했는지, 기존 방식과 무엇이 다른지, 실제로 어떤 구조로 돌아가며, 어떤 팀에게 유리하고 어디까지는 아직 조심해서 봐야 하는지까지 한 번에 잡을 수 있습니다. ..
최근 TTS(Text-to-Speech)는 많이 발전했지만, 실무에서는 여전히 몇 가지 문제가 남아 있습니다. 음성은 자연스러워야 하고, 화자 특성은 유지해야 하고, 여러 언어를 지원해야 하며, 가능하면 실시간에 가깝게 동작해야 합니다. VoxCPM2는 이 요구를 하나의 오픈소스 모델 계열 안에서 풀어보려는 시도입니다. GitHub README와 공식 문서에 따르면, 이 모델은 tokenizer-free TTS, 30개 언어 지원, 보이스 디자인, 제어 가능한 음성 클로닝, 48kHz 출력을 핵심으로 내세웁니다. (GitHub) GitHub - OpenBMB/VoxCPM: VoxCPM2: Tokenizer-Free TTS for Multilingual Speech Generation, Creative V..
AI 코딩 도구를 써 본 개발자라면 금방 느낍니다.같은 요청을 해도 결과가 매번 다릅니다. 어떤 날은 계획을 잘 세우고, 어떤 날은 테스트를 건너뛰고, 어떤 날은 PR 설명조차 엉성합니다. Archon은 바로 이 불안정함을 줄이기 위해 나온 도구입니다. (GitHub)핵심은 간단합니다.“AI에게 일을 맡긴다”에서 끝내지 않고, “어떤 순서와 규칙으로 일을 하게 할지”를 워크플로로 고정하는 것입니다. 이 글을 끝까지 읽으면 Archon이 왜 필요한지, 기존 AI 코딩 방식과 무엇이 다른지, 어떤 팀에 잘 맞고 어디까지 기대해야 하는지까지 한 번에 감을 잡을 수 있습니다. (GitHub) GitHub - coleam00/Archon: The first open-source harness builder for..
최근 AI 도구는 많아졌지만, 실제로 메모 앱 안에서 일하는 방식은 크게 바뀌지 않았습니다. 채팅창에 질문을 던지고, 답을 복사해서 노트에 붙여넣고, 다시 수정 지시를 내리는 흐름이 대부분이었습니다. 이 과정은 보기보다 자주 끊깁니다. 문맥이 잘리고, 수정 이력이 흩어지고, 작업 대상이 많아질수록 대화와 파일이 따로 노는 문제가 생깁니다. (GitHub)Claudian은 이 불편을 정면으로 건드립니다. 핵심은 “AI를 노트 앱에 붙인다”가 아니라, Obsidian 볼트 자체를 에이전트의 작업 디렉터리로 바꾸는 데 있습니다. 즉, AI가 단순히 답변만 생성하는 것이 아니라 볼트 안의 파일을 읽고, 쓰고, 검색하고, 필요하면 여러 단계를 거쳐 작업을 수행하는 구조입니다. (GitHub)이 글을 끝까지 읽으면..
이 글은 앤트로픽이 공개한 Claude Managed Agents와, 거의 동시에 등장한 오픈소스 프로젝트 Multica가 무엇을 해결하려는지 정리한 글입니다. 핵심은 단순히 “비슷한 제품이 나왔다”가 아닙니다. 이제는 에이전트를 잘 만드는 것보다, 에이전트를 안정적으로 실행하고 팀 워크플로우에 붙이는 인프라가 더 중요한 단계로 넘어가고 있다는 점입니다. (Claude Platform)특히 Claude Managed Agents는 앤트로픽이 직접 제공하는 관리형 에이전트 실행 환경이고, Multica는 그 문제를 오픈소스·셀프호스팅·벤더 중립 방식으로 풀려는 프로젝트입니다. 둘 다 “모델 호출”을 넘어, 에이전트가 장시간 작업하고, 도구를 쓰고, 상태를 유지하고, 팀 안에서 일하게 만드는 데 초점을 둡니..
이 글은 Google Cloud AI 디렉터 Addy Osmani가 만든 agent-skills의 6단계 프로세스 중, 첫 단계인 DEFINE을 정리한 글입니다. 특히 DEFINE 단계에서 사용하는 /spec 명령이 왜 중요한지, 그리고 이 명령이 단순히 “앱을 만들어주는 기능”이 아니라 요구사항을 명확하게 만드는 도구라는 점을 중심으로 설명합니다. (GitHub)처음 AI 코딩 에이전트를 쓰면 보통 이렇게 요청하게 됩니다.“할 일 앱을 만들어줘.”문제는 이 한 문장만으로는 화면 범위, 저장 방식, 로그인 필요 여부, 우선순위 기능, 테스트 기준이 전혀 정해지지 않는다는 점입니다. agent-skills의 /spec은 바로 이 모호함을 줄이기 위해 존재합니다. 코드를 먼저 쓰는 대신, 무엇을 만들지 문서..
보통 지오코딩이라고 하면 Google Maps API나 별도 geocoding 서버를 떠올립니다. 그런데 이 프로젝트는 DuckDB-WASM으로 브라우저 안에 SQL 엔진을 올리고, Overture Maps 주소 데이터를 Parquet 파일로 직접 조회해서 정방향/역방향 지오코딩을 처리합니다. README 기준으로 4억 6,900만 건 이상 주소, 39개국 지원, 지도 클릭 기반 reverse geocoding, H3 타일 기반 조회 최적화까지 포함합니다. (GitHub)이런 도구는 특히 다음 독자에게 도움이 됩니다. 지도 서비스나 위치 검색 UI를 만드는 프론트엔드 개발자, 지오스페이셜 데이터 처리 흐름을 이해하고 싶은 개발자, 서버 비용 없이 데모나 프로토타입을 만들고 싶은 팀입니다. 공개된 저장소 ..
협업 도구는 이미 많습니다. 그런데 대부분은 결국 “채팅창 + 문서 + 보드” 조합으로 흘러갑니다. DeskRPG는 여기서 한 걸음 더 나가, 브라우저 안의 2D 픽셀 아트 오피스를 협업 인터페이스로 삼고, 그 안에 AI NPC, 태스크 진행, 회의, 맵 편집까지 붙입니다. 단순한 장식이 아니라, 협업 경험 자체를 공간 기반으로 재구성하려는 시도라고 볼 수 있습니다. (GitHub) GitHub - dandacompany/deskrpg: 2D pixel art multiplayer virtual office game — create characters, join channels, chat with AI N2D pixel art multiplayer virtual office game — create ch..
이 글은 Claude Code를 처음 프로젝트에 붙일 때 많은 팀이 비슷하게 겪는 문제를 어떻게 줄일 수 있는지 정리한 글입니다. 특히 “두 번째 세션부터 컨텍스트가 사라진다”, “에이전트에게 많이 맡겼더니 결과가 서로 충돌한다”, “하드 룰은 개발하다가 뒤늦게 떠오른다” 같은 문제를, 시작 단계에서 구조화하는 방법에 초점을 맞춥니다.공개된 저장소 기준으로, AlexZio00/claude-code-skills는 Claude Code용 실전형 스킬 모음이며 현재 README에서 확인되는 핵심 스킬은 /project-init입니다. 이 스킬은 코드를 쓰기 전에 인터뷰를 통해 CLAUDE.md와 DEVELOPMENT_ROADMAP.md를 생성하는 방식으로 프로젝트의 기본 원칙을 먼저 고정하자는 접근을 취합니다..
이 글은 GitHub 레포지토리 graphify를 기준으로, 이 도구가 왜 필요한지부터 핵심 개념, 동작 방식, 설치 방법, 실무 활용 포인트까지 한 번에 정리한 글입니다. 공개된 README와 아키텍처 문서상 확인되는 범위에서 설명합니다. (GitHub)요즘 AI 코딩 도구를 쓰다 보면 비슷한 문제가 자주 생깁니다. 파일은 많고, 문서와 코드와 이미지가 섞여 있고, 모델은 매번 원본 파일을 다시 훑느라 느리고 비싸고 맥락을 놓칩니다. graphify는 이 문제를 “파일 모음”을 질의 가능한 지식 그래프로 바꾸는 방식으로 풀려는 도구입니다. (GitHub)특히 이 도구는 Claude Code, Codex, OpenCode, OpenClaw, Factory Droid 같은 AI 코딩 어시스턴트와 함께 쓰는..
이 글은 VoiceStar가 무엇인지, 왜 기존 제로샷 TTS보다 한 단계 더 주목받는지를 정리한 글입니다. 특히 “목소리만 비슷하게 복제하면 끝 아닌가?”가 아니라, 원하는 길이에 맞춰 음성을 만들고, 학습 때 본 것보다 더 긴 구간까지 안정적으로 생성하는 문제를 어떻게 다루는지에 초점을 맞춥니다. (arXiv)최근 TTS는 품질만으로는 차별화가 어렵습니다. 실무에서는 발화 길이 제어, 긴 문장 안정성, 말이 밀리거나 끊기지 않는 정렬, 빠른 테스트 환경이 더 중요해집니다. VoiceStar는 이 지점에서, 논문 기준으로 제로샷 TTS에서 duration control과 extrapolation을 동시에 달성한 첫 모델로 소개됩니다. (arXiv)이 글은 이런 분께 도움이 됩니다.제로샷 TTS를 처음 ..
최근 에이전트 개발은 “모델 호출” 자체보다도 라우팅, 메모리, 툴 연결, 워크플로, 관찰 가능성 같은 주변 인프라가 더 어렵습니다. VoltAgent는 이 부분을 TypeScript 중심으로 묶어, 에이전트 로직보다 인프라 조립에 시간을 덜 쓰게 하려는 방향을 갖고 있습니다. (GitHub)특히 JavaScript·TypeScript 스택에서 서버와 UI를 함께 다루는 개발자라면 볼 이유가 있습니다. 공식 문서 기준으로 VoltAgent는 Vercel AI SDK 위에 구축되어 있고, 모델 문자열 기반 설정과 TypeScript API를 통해 여러 모델 제공자를 바꿔 끼울 수 있게 설계되어 있습니다. (voltagent.dev) GitHub - VoltAgent/voltagent: AI Agent En..
이름 그대로 Reddit 글과 댓글을 바탕으로 쇼츠형 영상을 자동 생성해 주는 오픈소스 봇입니다. 저장소 소개 문구도 “한 번의 명령으로 Reddit 영상을 만든다”는 점을 전면에 내세우고 있습니다. (GitHub)이 도구가 흥미로운 이유는 단순히 “영상 하나를 편하게 만든다” 수준이 아니기 때문입니다. 원래는 Reddit 글 선정, 댓글 추출, 스크린샷, TTS 음성 생성, 배경 영상 합성, 자막 느낌의 구성까지 여러 단계를 사람이 따로 처리해야 합니다. RedditVideoMakerBot은 이 흐름을 코드로 묶어 자동화합니다. 공개 README 기준으로 설치 후 python main.py로 실행하고, Reddit 앱 설정과 봇 옵션을 입력해 결과 영상을 만드는 구조입니다. (GitHub)특히 이런 도..
AI가 글을 써주는 시대는 이미 지났습니다. 이제 중요한 건 “글을 한 편 생성하느냐”가 아니라, 검색 의도 분석부터 경쟁사 조사, 초안 작성, 최적화, 발행까지를 하나의 운영 시스템으로 묶을 수 있느냐입니다. SEO Machine은 바로 그 지점을 겨냥한 프로젝트입니다. 단순한 프롬프트 모음이 아니라, Claude Code 위에 올라가는 콘텐츠 생산 워크스페이스에 가깝습니다. (GitHub)특히 이 저장소가 흥미로운 이유는, “AI에게 블로그 글을 써 달라” 수준에서 멈추지 않고 리서치 → 작성 → 분석 → 최적화 → WordPress 발행까지를 하나의 흐름으로 설계했다는 점입니다. 저장소 설명에서도 이 프로젝트를 long-form SEO 콘텐츠 작성을 위한 Claude Code workspace로 정..
AI를 “잘 쓰는 사람”보다 앞으로 더 강해질 사람은, AI가 왜 그렇게 동작하는지 설명할 수 있는 사람일 가능성이 높습니다.요즘 대부분의 개발자는 LLM을 API로 호출합니다. 하지만 API 뒤에서 실제로 어떤 일이 벌어지는지, 토크나이저는 왜 필요한지, attention은 어디서 계산되는지, 왜 작은 모델은 금방 문맥을 잃는지까지 손으로 한 번 만들어본 사람은 많지 않습니다. 그래서 지금 Hacker News에서 주목받는 GuppyLM은 단순한 장난감 프로젝트가 아닙니다. 이 프로젝트는 “LLM은 거대한 GPU 클러스터와 미친 자본이 있어야만 이해할 수 있다”는 착각을 정면으로 깨버립니다. 작성자는 이 모델을 약 8.7M 파라미터, 약 130줄짜리 PyTorch 모델 코드, 60K 합성 대화 데이터,..
AI 에이전트 시대가 되면서 “사람이 읽기 좋은 문서”와 “기계가 읽기 좋은 데이터”를 동시에 제공하는 서비스가 점점 중요해지고 있습니다. KarpathyTalk는 바로 그 지점을 찌릅니다. 겉으로 보면 작은 소셜 서비스처럼 보이지만, 실제로는 마크다운 문서를 중심으로 한 공개형 개발자 커뮤니티를 아주 단순한 구조로 구현한 실험입니다. 일반적인 소셜 플랫폼처럼 데이터를 감추는 대신, 게시물과 사용자 정보를 JSON과 Markdown으로 열어두고 LLM 에이전트까지 염두에 둔 인터페이스를 제공합니다. (GitHub)프로젝트 소개KarpathyTalk는 Andrej Karpathy가 공개한 오픈소스 프로젝트로, 저장소 설명 그대로 “builders and agents를 위한 긍정적인 개발자 커뮤니티”를 지향..
AI 코딩 도구는 점점 똑똑해지고 있습니다. 그런데 막상 실무에서 써보면, “코드를 읽는 것”과 “코드베이스를 이해하는 것”은 전혀 다른 문제라는 걸 금방 깨닫게 됩니다. 파일 몇 개를 요약하는 건 잘해도, 어떤 함수가 어디서 호출되고, 변경이 어디까지 전파되며, 실제 실행 흐름이 어떻게 이어지는지는 놓치기 쉽습니다. GitNexus는 바로 그 간극을 파고든 프로젝트입니다. 서버를 따로 띄우지 않고, 브라우저나 로컬 환경에서 코드베이스를 지식 그래프로 바꿔서 탐색하게 만듭니다. 이 프로젝트가 흥미로운 이유는 단순한 “코드 검색기”가 아니라, AI가 코드를 더 안전하게 다루기 위한 구조적 컨텍스트 레이어를 만들고 있기 때문입니다. (GitHub) GitHub - abhigyanpatwari/GitNexus..
AI 에이전트 시대가 열리면서, 이제 경쟁력은 “얼마나 많은 Tool을 붙였는가”보다 “그 Tool 호출을 사용자가 얼마나 이해할 수 있는가”로 이동하고 있습니다.많은 AI 제품이 Tool 호출 결과를 아직도 텍스트 로그나 JSON 덩어리로 보여줍니다. 모델은 이해할지 몰라도, 사람은 한 번 더 해석해야 합니다. assistant-ui/tool-ui는 바로 이 지점을 정면으로 겨냥합니다. 툴 실행 결과를 승인 카드, 옵션 선택 UI, 차트, 테이블, 터미널, 링크 프리뷰 같은 실제 인터페이스로 바꿔서, AI가 한 일을 사람이 즉시 이해하고 바로 반응할 수 있게 만듭니다. (GitHub)이 프로젝트를 한 문장으로 요약하면 이렇습니다.“AI의 Tool 호출 결과를, 인간 친화적인 UI 컴포넌트로 렌더링하는 ..
AI를 검색 도구로만 쓰지 말고, 지식이 쌓이는 시스템으로 바꾸는 법솔직히 많은 사람이 아직도 AI를 “똑똑한 검색창”처럼 씁니다.질문 하나 던지고, 답을 받고, 창을 닫습니다.그다음 비슷한 주제가 나오면 또 처음부터 묻습니다.그러면 AI는 다시 자료를 뒤지고, 다시 요약하고, 다시 설명합니다.문제는 이 과정에서 지식이 축적되지 않는다는 것입니다.대화는 끝나면 흩어지고, 생각은 파일로 남지 않고, 연결은 형성되지 않습니다.최근 안드레이 카파시가 공개한 LLM Wiki는 바로 이 문제를 겨냥한 패턴입니다. 이 문서는 특정 앱 소개가 아니라, LLM 에이전트에게 그대로 넘겨서 자기만의 지식 시스템을 만들 수 있게 설계된 “아이디어 파일”에 가깝습니다. (Gist)https://gist.github.com/k..
AI 코딩 에이전트가 넘쳐나는 시대다. 그런데 막상 “에이전트가 내부적으로 어떻게 돌아가는가?”를 이해하려고 코드를 열어보면, 프레임워크 계층과 추상화가 너무 두꺼워 금방 길을 잃는다. mini-coding-agent는 그 반대편에 서 있다. 기능을 과시하기보다, 코딩 에이전트의 뼈대를 눈으로 따라갈 수 있게 만든다. 저장소 설명 그대로 이 프로젝트는 “코딩 에이전트의 핵심 구성요소를 설명하기 위한 최소한의 읽기 쉬운 구현”을 목표로 한다. (GitHub)무엇보다 흥미로운 지점은 이 프로젝트가 “새로운 에이전트 프레임워크”를 내세우지 않는다는 점이다. 대신 로컬 모델 서버인 Ollama를 백엔드로 붙이고, 단일 Python 파일 중심으로 에이전트 루프를 구현해 둔다. 설치 요구사항도 Python 3.10..
Field Theory CLI로 X 북마크를 로컬 DB와 LLM 검색 레이어로 만드는 방법북마크는 저장해둘 때는 분명히 유용해 보인다. 그런데 막상 “예전에 저장해둔 그 글”을 찾으려는 순간, 저장 기능은 기억 보조 장치가 아니라 정보 무덤이 된다.특히 X의 북마크나 Threads의 저장 기능은 모아두기에는 좋지만, 다시 꺼내 쓰기에는 불편하다. 검색은 약하고, 분류는 없고, LLM에 붙여서 내 지식 베이스처럼 다루기도 어렵다. 그래서 결국 개발자는 한 번쯤 이런 생각을 하게 된다.“그냥 내가 로컬에 다 저장하고, 인덱싱해서, SQL로 조회하고, 필요하면 LLM이 읽게 만들면 되지 않을까?”Field Theory CLI는 바로 그 생각을 꽤 현실적인 형태로 구현한 프로젝트다. 그리고 여기서 더 흥미로운 ..
