00:00:00Claude Code로 코딩을 해보셨다면, 아마 '컨텍스트 비대화' 현상을 겪어보셨을 겁니다. 문제는
00:00:05Claude Code에서 호출하는 모든 MCP 도구가 터무니없이 비싸다는 점입니다. 왜냐하면 이러한
00:00:11모든 호출 결과가 모델의 200k 컨텍스트 창에 그대로 쏟아져 들어오기 때문이죠. 도구가
00:00:17많아질수록 컨텍스트는 더 빨리 소모됩니다. 특정 시나리오에서는
00:00:22에이전트를 활발히 사용한 지 30분 만에 컨텍스트가 압축되는 상황이 벌어집니다. 그러면
00:00:28AI가 파일, 작업, 그리고 중요한 결정사항들을 잊어버리기 시작합니다. 게다가
00:00:34그만큼 많은 토큰 비용을 지불하게 되죠. 하지만 이 문제를 해결해 줄 MCP 서버가 있습니다.
00:00:40바로 'Context Mode'입니다. 오늘 영상에서는 Context Mode가 무엇인지,
00:00:44어떻게 작동하는지 살펴보고 직접 데모를 통해 테스트해보겠습니다.
00:00:48정말 흥미로운 내용이니 바로 시작해 보시죠.
00:00:55왜 이런 일이 발생하는지 수치로 살펴봅시다. 웹 페이지의 Playwright
00:01:00스냅샷 하나는 약 56KB입니다. GitHub 이슈 20개를 읽으면 59KB죠. 계획 단계에서
00:01:08이런 작업을 여러 번 반복하면 에이전트가 코드 한 줄 쓰기도 전에 창의 70%를 써버리게 됩니다.
00:01:14Context Mode는 일종의 가상화 레이어 역할을 합니다.
00:01:20AI가 OS와 직접 통신하는 대신 샌드박스와 통신하게 하죠. 그리고 방대한 결과물을
00:01:26그대로 던지는 대신, FTS5(전체 텍스트 검색)를 사용하는 로컬 SQLite 데이터베이스에 인덱싱합니다.
00:01:34그 결과는 상당히 놀랍습니다. 예를 들어, 56KB였던 Playwright 스냅샷은
00:01:41299바이트로 줄어듭니다. 99%나 감소한 거죠. 분석용 CSV 파일의 경우에도
00:01:49222바이트로 압축되어 거의 100%에 가까운 감소율을 보입니다. 하지만 토큰 절약은 일부일 뿐입니다.
00:01:56진정한 가치는 세션의 연속성에 있습니다. 에이전트의 기록이 압축되면서
00:02:0310분 전에 작성한 코드를 갑자기 인식하지 못하는 경우를 다들 보셨을 겁니다. 하지만 Context Mode는
00:02:09훅(hooks)을 사용해 모든 파일 수정, Git 작업, 하위 작업을 모니터링합니다. 대화가 압축될 때
00:02:15Context Mode는 우선순위가 지정된 2KB 미만의 스냅샷을 만들어 다시 주입합니다.
00:02:22코딩 세션을 위한 '체크포인트 저장' 기능이라고 보시면 됩니다. 이론적으로 세션 유지 시간을
00:02:2730분에서 약 3시간까지 늘릴 수 있습니다. 또한 결정 사항과 오류도 추적합니다.
00:02:34예를 들어 20분 전에 실패했던 해결 방식을 컨텍스트가 초기화된 후에도 다시 반복하지 않죠.
00:02:40설치 방법도 매우 간단합니다. Claude Code를 사용 중이라면 먼저 다음 명령어를 실행해
00:02:46Context Mode 마켓플레이스를 추가하세요. 그다음 플러그인 설치 명령어를 실행하면
00:02:53준비가 끝납니다. 설치가 완료되면 MCP 서버, 훅,
00:02:57라우팅 지침 등을 자동으로 처리합니다. Gemini CLI나 VS Code Copilot 사용자라면
00:03:03'npm install context-mode'를 실행하고 설정에 구성을 추가하면 됩니다. 이제 실제로 확인해 보죠.
00:03:10여기에 가짜 API 요청과 상태 코드가 포함된 더미 액세스 로그 파일을 생성하는
00:03:15간단한 파이썬 명령어가 있습니다. 100행마다 하나씩
00:03:22500 에러 로그가 들어 있죠. 이제 Claude를 실행해 "Context Mode로 access.log를 인덱싱해 줘.
00:03:30모든 500 에러 패턴을 찾고 관련 IP 주소를 요약해 줘"라고 요청해 보겠습니다.
00:03:36그러면 백그라운드에서 Context Mode가 5,000행의 로그 파일을
00:03:44자체 SQLite FTS5 데이터베이스로 청킹합니다. Claude는 원본 5,000행 대신
00:03:51파일이 인덱싱되었다는 확인만 받게 되죠. 이제 Claude는 전체 파일을 파싱하는 대신
00:03:57인덱싱된 데이터베이스를 지능적으로 검색해 내용을 쿼리합니다. Claude가 반환한 결과를 보시죠.
00:04:02하지만 더 중요한 것은 비용 절감입니다. 'context-mode :cts-stats'를 실행하면
00:04:09현재 세션에서 얼마나 많은 데이터가 절약되었는지 확인할 수 있습니다.
00:04:15결과를 확인해 보세요. 20KB 전체를 대화에 쏟아붓는 대신 Context Mode는
00:04:21약 5KB의 원본 데이터만 샌드박스에 유지했습니다. 작은 파일임에도
00:04:27결과가 꽤 인상적입니다. 약 1,200개의 토큰이 컨텍스트 창에 들어가는 것을 방지했죠.
00:04:34이번 테스트에서는 총 25%의 감소 효과를 보았습니다. 별것 아닌 것 같아 보이지만,
00:04:41일반적인 Claude 세션에서는 이 데이터가 그대로 남아 메시지를 보낼 때마다
00:04:47계속해서 다시 전송된다는 점을 기억하세요. 데이터를 샌드박스에 보관함으로써
00:04:53이미 세션의 수명을 늘리기 시작한 겁니다. 데모 파일은 작지만, 더 큰 파일을 다룬다면
00:04:58절감 효과는 엄청날 것입니다. 대규모 저장소 리서치나 운영 환경의 로그 분석을 한다면
00:05:031,200 토큰의 절약은 쉽게 100,000 토큰으로 바뀔 수 있습니다. 하지만 목적은
00:05:11단순히 API 비용을 아끼는 것만이 아닙니다. 물론 그것도 좋은 혜택이지만요.
00:05:18핵심은 모델의 지능을 유지하는 것입니다. 컨텍스트 창에서 소음을 제거하면
00:05:24실제 추론을 위한 공간이 더 많이 확보됩니다. Claude가 더 나은 엔지니어가 될 공간을 주는 거죠.
00:05:30AI 에이전트로 복잡한 프로젝트를 진행 중이라면, 이 도구를 사용해 보세요.
00:05:35에이전트가 내용을 압축하고 잊어버리기 전까지 세션을 얼마나 더 늘릴 수 있는지 직접 확인해 보시기 바랍니다.
00:05:41이번 기술 분석이 마음에 드셨다면 영상 하단의 좋아요 버튼을
00:05:45꼭 눌러주세요. 채널 구독도 잊지 마시고요. 지금까지
00:05:50Better Stack의 Andris였고, 다음 영상에서 뵙겠습니다.