00:00:00이것은 구글 NotebookLM의 대안인 AnythingLLM입니다
00:00:04코드 베이스, 문서, 내부 데이터와 채팅할 수 있게 해주는 오픈 소스 셀프 호스팅 AI 워크스페이스죠
00:00:10게다가 완전히 비공개이며, 대부분의 로컬 LLM 설정과는 다릅니다
00:00:14사용 가능한 상태로 만들기 위해 Llama, LangChain, 벡터 데이터베이스, 조잡한 UI를 일일이 조립할 필요가 없습니다
00:00:22앞으로 몇 분 동안 이 도구가 어떻게 그 모든 스택을 대체하는지, 그리고 실제로 바꿀 가치가 있는지 보여드리겠습니다
00:00:30자
00:00:32진짜 문제는 이겁니다. 로컬 모델을 돌리는 건 이제 쉽지만, 워크플로우가 항상 쉬운 건 아니라는 거죠
00:00:38한쪽 터미널에선 Llama를 실행하고, 다른 쪽엔 LangChain 스크립트, 어딘가엔 벡터 DB, 그리고 임시로 만든 UI까지 띄워야 합니다
00:00:47네, 작동은 합니다
00:00:49하지만 주의해야 할 점이 있죠. AnythingLLM은 이 모든 걸 하나의 워크스페이스로 통합합니다. 드래그 앤 드롭 RAG와 시각적인
00:00:56노코드 에이전트 빌더, 임베드 위젯이 포함된 풀 개발자 API를 제공하며, Ollama, LM Studio, Groq,
00:01:04xAI 같은 본인의 프로바이더를 가져올 수 있습니다. 구성 요소가 줄어들면 더 빠른 배포가 가능해지죠. 개발 워크플로우를
00:01:11가속화하는 도구들에 관심이 있다면 Better Stack 채널을 구독해 주세요. 이제 실행해 보겠습니다
00:01:16여기서 데스크톱 앱을 설치하겠습니다
00:01:18그런 다음 로컬 Llama 인스턴스와 기본 벡터 데이터베이스인 LanceDB를 연결할 수 있습니다
00:01:24추가로 설정할 건 아무것도 없습니다
00:01:27이제 파이썬 리포지토리와 문서 PDF 파일을 드래그해서 넣어보겠습니다
00:01:31AnythingLLM이 자동으로 이 모든 것을 청킹하고 임베딩하여 인덱싱할 것입니다
00:01:36“이 Fast API 엔드포인트를 설명하고 정확한 파일을 인용해 줘”라고 물으면 실제 파일 경로와 함께 인용문이 포함된 답변을 줍니다
00:01:43이 모든 과정 덕분에 환각 현상이 줄어들게 됩니다
00:01:47매일 상위 해커 뉴스 게시물을 요약하는 간단한 에이전트를 만들어 보겠습니다. 웹 검색 도구를 넣기만 하면 끝입니다
00:01:54클릭 한 번이면 됩니다. 우리가 추가해야 했던 그 복잡한 Docker Compose 용어 같은 건 필요 없죠
00:01:58여기서부터 생산성 레이어가 한 단계 얹어진 느낌이 듭니다
00:02:02워크스페이스는 격리된 프로젝트이므로 고객 업무를 개인 프로젝트와 분리해서 관리할 수 있습니다
00:02:09마찬가지로 내부 위키와도 분리되죠. 전체 REST API가 제공되므로 본인의
00:02:16SaaS 내부 대시보드나 VS Code 확장 프로그램에 프라이빗 RAG를 임베드할 수 있습니다
00:02:20AnythingLLM은 특정 인터페이스에 갇히지 않는다는 점이 아주 좋습니다
00:02:24비주얼 에이전트 빌더를 통해 SQL 쿼리, SerpApi를 통한 웹 검색, 파일 작업, 심지어
00:02:32MCP 서버 같은 도구들을 연결할 수 있습니다. 더 세밀한 제어를 원하신다면
00:02:34에이전트 내부에서 여전히 LangChain을 사용할 수도 있습니다. 기본 벡터 저장소는 LanceDB이지만
00:02:40클릭 한 번으로 PGVector나 Qdrant로 전환할 수 있습니다
00:02:43자체 제품에 삽입할 수 있는 드롭인 채팅 위젯도 있고, 모델 프로바이더를
00:02:50대화 도중에 재시작이나 재인덱싱 없이 바꿀 수도 있죠. 그럼 다른 도구들과는 무엇이 다를까요?
00:02:55이미 사용 중인 NotebookLM이나 Open WebUI 같은 것들 말이죠. Open WebUI는
00:03:00플러그인이 있는 Llama 채팅 인터페이스를 주로 원할 때 훌륭합니다
00:03:03하지만 AnythingLLM은 더 강력한 내장형 RAG, 에이전트 워크스페이스, 그리고 데스크톱 앱을 추가로 제공합니다
00:03:08단순한 문서 질의응답에는 PrivateGPT도 잘 작동하지만
00:03:12AnythingLLM은 그 위에 에이전트와 전체 API를 더했습니다
00:03:16다른 영상에서 소개했던 Dify라는 도구도 있습니다. Dify와 LangFlow는 고도의 시각적 워크플로우를 선호한다면 강력하지만
00:03:23전반적으로 매우 무겁습니다. 반면 AnythingLLM은
00:03:26문서 위주의 RAG 사례에 더 가볍습니다. LangChain은 유연성이 더 높지만 모든 것을 직접 구축해야 하죠
00:03:33이제 X(트위터)와 레딧 등 여러 자료를 통해 조사한, 개발자들이 실제로 좋아하는 점과 싫어하는 점을 이야기해 보겠습니다
00:03:40사람들은 API를 일관되게 칭찬하는데, 실제 애플리케이션에 프라이빗 RAG를 임베딩하는 것이 훨씬 쉬워지기 때문입니다
00:03:46데스크톱 버전은 온보딩을 단순하게 만들어 줍니다. 팀에 새로운 멤버가 왔을 때 설치하고 연결하면
00:03:54정말 빠르게 시작할 수 있습니다
00:03:55게다가 문맥을 깨뜨리지 않고 채팅 중에 모델을 교체하는 기능은 엄청납니다. 그리고 오픈 소스이기 때문에
00:04:01자체 호스팅이 가능합니다. 즉, 데이터가 환경 밖으로 나갈 걱정 없이 고객이나 타인에게 시연할 수 있죠. 단점으로는
00:04:09완벽한 리콜을 위해 RAG 문서 고정 기능이 필요할 때가 있습니다. 500개 이상의 대규모 문서 컬렉션의 경우
00:04:16사양이 낮은 노트북에서는 RAM을 많이 차지할 것입니다. 에이전트 흐름은 예외적인 상황에서 아직 베타 버전처럼 느껴질 수 있습니다
00:04:22따라서 완벽하지는 않겠죠. 하지만 대부분의 실제 워크플로우에서 현재 우리가 가진 가장 덜 고통스러운 옵션 중 하나입니다
00:04:28특히 오픈 소스라는 점이 크죠. 그래서 이게 가치가 있을까요? 내부 도구나 고객용 프라이빗 AI 시스템을 구축한다면
00:04:37당연히 그렇습니다. 또는 모든 걸 직접 코딩하지 않고 프로덕션 등급의 RAG 베이스를 원한다면
00:04:41정말 훌륭할 겁니다. 실제로 배포 가능한 에이전트가 필요하다는 점도 큰 장점입니다
00:04:46모든 걸 일일이 조립할 필요가 없으니까요
00:04:47하지만 모든 세부 사항에 대해 극도로 세밀한 튜닝이 필요하거나, 처음부터 생으로 LangChain을 써서 구축하는 걸 선호한다면
00:04:55물론 그것도 재미있긴 하겠지만요
00:04:56이해합니다
00:04:57하지만 아주 저사양 하드웨어에서 실행 중이고 극도로 가벼운 것을 원한다면 이 도구는 맞지 않을 것입니다
00:05:03아래에 링크된 리포지토리에 데스크톱 다운로드 정보가 있습니다
00:05:07워크플로우를 가속화하고 변화시키는 이런 도구들이 즐거우셨다면 Better Stack 채널 구독을 잊지 마세요
00:05:13그럼 다음 영상에서 뵙겠습니다