Log in to leave a comment
No posts yet
Тратить время на копание в документации ради исправления одной строки кода — непозволительная роскошь. Особенно если вы фулстек-разработчик, который и швец, и жнец, и на дуде игрец. Если Claude Code произвольно интерпретирует структуру проекта и выдает нелепый код, проблема не в интеллекте ИИ, а в том, что ваше хранилище знаний находится в беспорядке. Вот руководство о том, как выйти за рамки простой установки LightRAG и превратить его в действительно полезную интеллектуальную базу знаний.
LightRAG не просто нарезает текст на куски. Он строит граф знаний, связывающий слова и понятия. Чтобы ИИ не путал контекст вашего кода, нужно начать с переписывания README.md. Плоские списки функций бесполезны.
Добавьте в верхнюю часть документов комментарии, явно указывающие зависимости. Например, вставляйте текстовые бинарные отношения вроде (OrderProcessor, uses, PaymentService). Чем сложнее связь, тем на более мелкие детали ее нужно разбить — так LightRAG создаст точные узлы. Явное описание связей между сервисами, контроллерами и DTO поможет избежать «галлюцинаций» Claude Code, когда он не может разобраться во внутренней структуре библиотек. На практике индексация документов с четко прописанными связями повышает достоверность ответов по архитектуре до 90% и выше.
Скармливать локальному движку все файлы подряд — затея бессмысленная. Это лишь тратит токены и засоряет граф знаний. Внешние зависимости, такие как node_modules, ИИ уже изучил на этапе обучения на мировых данных. Нет нужды загрязнять ими ваш локальный движок.
Создайте файл .ragignore в корне проекта. Безжалостно исключайте артефакты сборки, логи и временные файлы:
node_modules/, dist/, target/ и т.д.*.log, tmp/.@primary_definition в основные файлы, чтобы задать приоритет.Простое отсечение лишних данных поднимает точность поиска выше 90%. Бонусом вы получите ускорение поиска за счет «легкого» индекса.
Claude Code взаимодействует с внешним миром через MCP. Если передавать весь текст целиком, ответы станут медленными, а кошелек — пустым. Ключ к успеху — селекция только топ- узлов с наивысшим показателем сходства .
В настройках MCP включите опцию only_need_context и ограничьте извлечение только необходимым подграфом. Нужно научить систему вызывать разные режимы в зависимости от характера вопроса. Настройте параметры так, чтобы для вопросов об архитектуре использовался режим global, а для запросов на изменение конкретных функций — режим local. Это ускорит отклик более чем в 2 раза. Это искусство заставляет ИИ точно понимать намерение вопроса и обращаться к наиболее подходящим узлам знаний.
Если запустить LightRAG в Docker параллельно с Claude Code, ваш компьютер может «закричать». В среде соло-разработчика зависание системы означает прерывание рабочего потока. Ограничение ресурсов — это необходимость, а не выбор.
При наличии 16 ГБ ОЗУ выделите контейнеру LightRAG около 4 ГБ. Остальное оставьте для IDE и локальных LLM. В docker-compose.yaml установите лимиты: cpus: '2.0', memory: 4G. Если важна скорость, используйте модель эмбеддингов nomic-embed-text с задержкой около 56 мс. Если же критична точность, стоит выбрать text-embedding-3-small, даже если это займет 90 мс.
Вручную запускать индексацию после каждого исправления кода — это мучение. В конце концов, лень победит, вы перестанете обновлять индекс, и ИИ будет пытаться исправлять сегодняшние баги на основе вчерашнего кода.
Решение — использование хука post-commit в Git. Напишите скрипт, который при каждом коммите выбирает только измененные файлы и отправляет их на сервер LightRAG. Используйте git diff-tree для получения списка изменений и пробрасывайте файлы, не попавшие в .ragignore, на эндпоинт /insert. С такой системой инкрементальной индексации Claude Code всегда будет понимать ваш код в режиме «здесь и сейчас» без лишних усилий. Это сэкономит вам минимум час времени в день, который раньше уходил на рутинное управление.