00:00:00Este é o Anything LLM, a alternativa ao NotebookLM do Google
00:00:04É um espaço de trabalho de IA de código aberto e auto-hospedado que permite conversar com seu código, documentos e dados internos
00:00:10Além disso, é completamente privado e, ao contrário da maioria das configurações locais de LLM
00:00:14Você não precisa juntar um Llama, LangChain, um banco de dados vetorial e uma interface simples só para torná-lo utilizável nos próximos minutos
00:00:22Eu vou te mostrar exatamente como ele substitui toda essa pilha e se realmente vale a pena mudar
00:00:30Então
00:00:32Aqui está o real problema: modelos locais são fáceis agora, nós entendemos, mas o fluxo de trabalho nem sempre é tão simples
00:00:38Você tem um Llama rodando em um terminal, scripts LangChain em outro, seu banco de dados vetorial em algum lugar e uma interface que você montou temporariamente
00:00:47Sim, funciona
00:00:49Mas também temos que ter cuidado aqui; o Anything LLM agrupa tudo isso em um único espaço de trabalho, você tem RAG do tipo arraste-e-solte, um
00:00:56construtor visual de agentes sem código, uma API completa para desenvolvedores com um widget incorporável e você pode trazer seus próprios provedores como Ollama, LM Studio, Groq
00:01:04xAI, então temos menos partes móveis, o que leva a entregas mais rápidas. Se vocês gostam desse tipo de conteúdo com ferramentas que aceleram
00:01:11seu fluxo de desenvolvimento, não esqueçam de se inscrever no canal Better Stack. Agora, deixe-me mostrar isso aqui
00:01:16Vou apenas instalar o aplicativo de desktop agora
00:01:18Depois, posso conectar minha instância local do Llama e o LanceDB como banco de dados vetorial padrão
00:01:24Portanto, não há nada extra para configurar aqui agora
00:01:27Vou apenas arrastar um repositório Python e um PDF com documentação
00:01:31O Anything vai automaticamente fragmentar, converter em embeddings e indexar tudo isso para mim agora
00:01:36Eu posso perguntar “explique este endpoint FastAPI” e pedir para citar o arquivo exato, e ele responde com citações apontando para os caminhos reais dos arquivos
00:01:43Com tudo isso levando a menos alucinações agora
00:01:47Vou criar um agente rápido para resumir os principais posts do Hacker News diariamente. Eu incorporo a ferramenta de busca na web e pronto
00:01:54Com um clique, sem todo aquele jargão de Docker Compose que teríamos que adicionar a isso
00:01:58É aqui que ele começa a parecer uma camada de produtividade por cima de tudo
00:02:02Os espaços de trabalho são projetos isolados, o que significa que o trabalho do cliente fica separado do seu projeto pessoal
00:02:09Que por sua vez fica separado da sua wiki interna. Há uma API REST completa para que você possa incorporar RAG privado em seus próprios
00:02:16SaaS, painéis internos e até uma extensão para o VS Code
00:02:20Isso é ótimo porque com o Anything você não fica preso a uma única interface
00:02:24o constutor visual de agentes permite conectar ferramentas como consultas SQL, busca na web via SERP API, operações de arquivo e até
00:02:32servidores MCP e, se você quiser mais controle, sim
00:02:34você ainda pode usar LangChain dentro de um agente. O LanceDB é o armazenamento vetorial padrão
00:02:40Mas você pode mudar para PGVector ou Qdrant com um clique
00:02:43Também há um widget de chat que você pode incorporar no seu próprio produto e você pode trocar de provedor de modelo
00:02:50Em uma conversa, sem reiniciar ou mesmo reindexar. Então, como isso é diferente das outras ferramentas?
00:02:55Já estamos usando o NotebookLM, Open WebUI... esse último é ótimo
00:03:00Se você quer principalmente uma interface de chat para o Llama com plugins
00:03:03Mas o Anything LLM adiciona um RAG integrado mais robusto, espaços de trabalho de agentes e um aplicativo de desktop
00:03:08Você tem o PrivateGPT, que funciona bem para perguntas e respostas simples em documentos
00:03:12Mas o Anything LLM adiciona agentes e uma API completa por cima disso
00:03:16Existe uma ferramenta chamada Dify sobre a qual falei em outro vídeo; Dify e LangFlow são poderosos se você gosta de fluxos de trabalho visuais pesados
00:03:23Mas eles são realmente pesados no geral. Com o Anything LLM
00:03:26é mais leve para casos de uso de RAG com muitos documentos. O LangChain nos dá mais flexibilidade, mas você está construindo tudo do zero
00:03:33Agora vamos falar sobre o que os devs realmente gostam e o que não gostam, baseando-se no X, Reddit e outros recursos
00:03:40As pessoas elogiam consistentemente a API porque ela torna a incorporação de RAG privado em aplicações reais muito mais fácil
00:03:46a versão desktop torna a integração mais simples do que outras; um novo membro da equipe poderia instalar, conectar e apenas
00:03:54Começar isso muito rapidamente
00:03:55além disso, essa habilidade adicional de trocar modelos no meio do chat sem perder o contexto é enorme e, por ser de código aberto, podemos
00:04:01Auto-hospedá-lo, o que significa que você pode fazer demonstrações para clientes sem se preocupar com seus dados saindo do ambiente. Agora, do lado negativo
00:04:09O RAG às vezes precisa de fixação de documentos para uma recuperação perfeita; grandes coleções, falo de 500 ou mais documentos
00:04:16vão consumir muita memória RAM em laptops menores. Fluxos de agentes ainda podem parecer um pouco instáveis em casos específicos
00:04:22Então não vai ser perfeito. Mas para a maioria dos fluxos de trabalho do mundo real, é uma das opções menos dolorosas que temos agora
00:04:28Especialmente sendo de código aberto. Então, vale a pena? Se você está construindo ferramentas internas, sistemas de IA privados para clientes
00:04:37Sim, claro, ou se você quer uma base de RAG de nível de produção sem ter que escrever tudo sozinho
00:04:41Isso vai ser ótimo. Se você precisa de agentes que realmente funcionem, isso também é um grande bônus
00:04:46Não estamos apenas juntando peças aleatórias
00:04:47Mas se você exige um ajuste fino ultra detalhado para cada dia ou prefere construir tudo do zero com LangChain puro
00:04:55Ei, isso é divertido
00:04:56Eu entendo
00:04:57Mas isso não vai ser para você se você estiver rodando em hardware de baixo custo e precisar de algo extremamente leve; novamente
00:05:03Isso não vai ser o caso. O download do desktop está no repositório que linkei abaixo
00:05:07Se você gosta desses tipos de ferramentas para acelerar e mudar seu fluxo de trabalho, não esqueça de se inscrever no canal Better Stack
00:05:13Nos vemos em outro vídeo