00:00:00Das hier ist AnythingLLM, die Alternative zu Googles NotebookLM.
00:00:04Es ist ein quelloffener, selbst gehosteter KI-Arbeitsbereich, mit dem Sie mit Ihrer Codebasis, Dokumenten und internen Daten chatten können.
00:00:10Außerdem ist es absolut privat und – im Gegensatz zu den meisten lokalen LLM-Setups –
00:00:14müssen Sie nicht mühsam Llama, LangChain, eine Vektordatenbank und eine einfache UI zusammenbasteln, nur um es nutzbar zu machen. In den nächsten Minuten
00:00:22zeige ich Ihnen genau, wie es diesen gesamten Stack ersetzt und ob sich der Wechsel wirklich lohnt.
00:00:30Also,
00:00:32hier ist das eigentliche Problem: Lokale Modelle sind mittlerweile einfach, das wissen wir, aber der Workflow ist es nicht immer.
00:00:38Sie haben Llama in einem Terminal laufen, LangChain-Skripte in einem anderen, Ihre Vektordatenbank irgendwo anders und eine UI, die Sie nur provisorisch zusammengeschustert haben.
00:00:47Ja, es funktioniert zwar,
00:00:49aber man muss hier vorsichtig sein. AnythingLLM vereint das alles in einem Arbeitsbereich: Sie erhalten Drag-and-Drop-RAG, einen visuellen
00:00:56No-Code Agent Builder, eine vollständige Entwickler-API mit einem Embed-Widget und Sie können eigene Provider wie Ollama, LM Studio oder Grok
00:01:04xAI einbinden. Wir haben also weniger bewegliche Teile, was zu einer schnelleren Umsetzung führt. Wenn euch solche Inhalte über Tools gefallen, die
00:01:11euren Entwickler-Workflow beschleunigen, abonniert unbedingt den Better Stack Kanal. Lassen Sie mich das kurz durchspielen.
00:01:16Ich installiere hier einfach die Desktop-App.
00:01:18Dann kann ich meine lokale Llama-Instanz verbinden und LanceDB als Standard-Vektordatenbank festlegen.
00:01:24Es gibt also nichts zusätzlich zu konfigurieren.
00:01:27Jetzt ziehe ich einfach ein Python-Repo und ein PDF mit der Dokumentation hinein.
00:01:31AnythingLLM wird das alles automatisch für mich zerlegen, einbetten und indexieren.
00:01:36Jetzt kann ich fragen: “Erkläre diesen FastAPI-Endpunkt und nenne die genaue Datei”, und es antwortet mit Quellenangaben, die auf die echten Dateipfade verweisen.
00:01:43Das alles führt dazu, dass es deutlich weniger Halluzinationen gibt.
00:01:47Ich erstelle nun schnell einen Agenten, der täglich die Top-Beiträge von Hacker News zusammenfasst. Ich binde das Web-Suchtool ein und das war's.
00:01:54Ein Klick – kein Docker-Compose-Jargon, mit dem wir uns herumschlagen müssen.
00:01:58Hier fängt es an, sich wie eine echte Produktivitätsebene anzufühlen.
00:02:02Workspaces sind isolierte Projekte. Das bedeutet, Kundenaufträge bleiben getrennt von Ihren Nebenprojekten,
00:02:09die wiederum von Ihrem internen Wiki getrennt bleiben. Es gibt eine vollständige REST-API, sodass Sie privates RAG in Ihre eigenen
00:02:16SaaS-Anwendungen, interne Dashboards und sogar eine VS-Code-Extension einbetten können.
00:02:20Das ist großartig, denn mit AnythingLLM sind Sie nicht an eine bestimmte Schnittstelle gebunden.
00:02:24Mit dem visuellen Agent Builder können Sie Tools wie SQL-Abfragen, Web-Suche über die SERP-API, Dateioperationen und sogar
00:02:32MCP-Server verknüpfen. Und wenn Sie mehr Kontrolle wollen, ja,
00:02:34können Sie LangChain weiterhin innerhalb eines Agenten verwenden. LanceDB ist der Standard-Vektorspeicher,
00:02:40aber Sie können mit einem Klick zu PGVector oder Qdrant wechseln.
00:02:43Es gibt auch ein fertiges Chat-Widget, das Sie in Ihr eigenes Produkt einbetten können, und Sie können die Modell-Provider wechseln,
00:02:50mitten im Gespräch, ohne neu zu starten oder neu zu indexieren. Wie unterscheidet sich das also von anderen Tools,
00:02:55die wir bereits nutzen, wie NotebookLM oder Open WebUI? Letzteres ist super,
00:03:00wenn man hauptsächlich ein Llama-Chat-Interface mit Plugins sucht.
00:03:03Aber AnythingLLM bietet stärkeres integriertes RAG, Agenten-Workspaces und eine Desktop-App.
00:03:08Es gibt PrivateGPT, das gut für einfache Dokumenten-Q&A funktioniert,
00:03:12aber AnythingLLM packt Agenten und eine komplette API oben drauf.
00:03:16Es gibt ein Tool namens Dify, über das ich in einem anderen Video gesprochen habe. Dify und LangFlow sind mächtig, wenn man komplexe visuelle Workflows liebt,
00:03:23aber sie sind insgesamt sehr schwerfällig. AnythingLLM hingegen
00:03:26ist leichtgewichtiger für dokumentenlastige RAG-Anwendungsfälle. LangChain bietet mehr Flexibilität, aber man muss alles selbst bauen.
00:03:33Sprechen wir nun darüber, was Entwicklern wirklich gefällt und was nicht, basierend auf X, Reddit und anderen Quellen.
00:03:40Die Leute loben konsequent die API, weil sie das Einbetten von privatem RAG in echte Anwendungen viel einfacher macht.
00:03:46Die Desktop-Version vereinfacht das Onboarding im Vergleich zu anderen. Ein neues Teammitglied könnte die App installieren, verbinden und
00:03:54sofort sehr schnell loslegen.
00:03:55Außerdem ist die Funktion, Modelle mitten im Chat zu tauschen, ohne den Kontext zu verlieren, ein riesiger Vorteil. Da es Open Source ist, können wir
00:04:01es selbst hosten. Das heißt, Sie können es Kunden oder anderen präsentieren, ohne sich Sorgen machen zu müssen, dass Daten die Umgebung verlassen. Zu den Nachteilen:
00:04:09RAG benötigt manchmal das “Pinning” von Dokumenten für perfekten Recall. Große Sammlungen – ich spreche von 500 oder mehr Dokumenten –
00:04:16werden auf schwächeren Laptops viel RAM verbrauchen. Agenten-Flows können sich in Grenzfällen noch wie eine Beta-Version anfühlen.
00:04:22Es wird also nicht perfekt sein. Aber für die meisten realen Workflows ist es eine der schmerzfreiesten Optionen, die wir derzeit haben,
00:04:28besonders als Open-Source-Lösung. Lohnt es sich also? Wenn Sie interne Tools, kundenorientierte private KI-Systeme bauen,
00:04:37dann ja, natürlich. Oder wenn Sie eine produktionsreife RAG-Basis wollen, ohne alles selbst schreiben zu müssen,
00:04:41ist das großartig. Wenn Sie Agenten brauchen, die tatsächlich einsatzbereit sind, ist das ebenfalls ein riesiger Bonus.
00:04:46Wir müssen nicht alles mühsam zusammenflicken.
00:04:47Aber wenn Sie ultra-feines Tuning für jedes Detail benötigen oder lieber alles von Grund auf mit purem LangChain bauen,
00:04:55hey, das macht Spaß,
00:04:56ich verstehe das.
00:04:57Aber dann ist das nichts für Sie. Und wenn Sie auf sehr schwacher Hardware arbeiten und etwas extrem Leichtgewichtiges brauchen,
00:05:03wird das hier auch nicht das Richtige sein. Den Desktop-Download und das Repo habe ich unten verlinkt.
00:05:07Wenn euch diese Art von Tools gefällt, die euren Workflow beschleunigen und verändern, abonniert unbedingt den Better Stack Kanal.
00:05:13Wir sehen uns im nächsten Video.