NotebookLM mit jedem Agenten nutzen - 7 krasse Wege

AAI LABS
컴퓨터/소프트웨어창업/스타트업AI/미래기술

Transcript

00:00:00Werden KI-Agenten immer schwächer oder arbeiten sie einfach nur mit schlechten Informationen?
00:00:03Das Hauptproblem bei Agenten ist ihr Kontext.
00:00:06Es liegt nicht daran, dass Agenten keine Informationen haben oder sich nichts merken können,
00:00:09sondern dass sie nicht auf einer kontrollierten Wissensquelle basieren.
00:00:12Das bedeutet, dass die Arbeit mit fehlerhaften Informationen der Grund für ihre schlechte Performance ist.
00:00:15Vielleicht kennst du bereits Google NotebookLM,
00:00:18ein Tool für exzellente Recherchen, das gleichzeitig ein Podcast-Generator ist.
00:00:22Aber was wäre, wenn es noch viel mehr könnte?
00:00:23Unser Team hat dieses Recherche-Tool aus verschiedenen Blickwinkeln getestet,
00:00:27um einen Weg zu finden, es in unsere Entwicklungs-Workflows zu integrieren.
00:00:30Und ehrlich gesagt haben wir nicht erwartet, dass es so gut passt.
00:00:32Im Laufe des Videos nutzt unser Team NotebookLM über das CLI-Tool.
00:00:36Es ist eine Schnittstelle, die dir die volle Kontrolle
00:00:39über die Verwaltung deiner Notebooks, Quellen und Audio-Reviews gibt.
00:00:44Die Installation ist simpel: Nur ein Befehl und fertig.
00:00:47Nach der Installation kannst du sie mit dem Help-Befehl überprüfen.
00:00:51Dieser zeigt alle verfügbaren Befehle zur Steuerung der Quellen,
00:00:56für multimodale Inputs und alle weiteren Funktionen des Tools an.
00:01:00Bevor du es nutzt, authentifiziere das CLI mit deinem Google-Konto über den Befehl „NLM auth“.
00:01:05Sobald du ihn ausführst, öffnet sich ein Chrome-Fenster zum Anmelden.
00:01:08Danach speichert NLM deine Zugangsdaten für die künftige Verwendung.
00:01:11NotebookLM ist via CLI und MCP zugänglich,
00:01:15beide vom selben Entwickler – du kannst also wählen, was dir lieber ist.
00:01:18Wir haben uns für das CLI entschieden, da es token-effizient ist
00:01:21und auch bei langfristigen Aufgaben keine Probleme macht.
00:01:24Wir können NotebookLM als „zweites Gehirn“ für KI-Agenten nutzen,
00:01:27indem wir Informationen zur Codebasis füttern und alles laufend dokumentieren lassen.
00:01:31Dazu haben wir Anweisungen in der Datei „claud.md“ hinterlegt
00:01:35und festgelegt, dass das gesamte Projektwissen sowie Architekturentscheidungen
00:01:38und alle weiteren Dokumentationen im Notebook gespeichert werden sollen.
00:01:41Dieses Notebook diente als einzige verlässliche Wissensquelle.
00:01:43Wir haben Claude genutzt, um das Notebook per CLI zu erstellen, und die ID in der „claud.md“ gespeichert.
00:01:49Bei der Entwicklung eines Features nutzen wir zuerst den Planungsmodus.
00:01:53Nach der Implementierung und erfolgreichem Build
00:01:55wurde das Notebook wie angewiesen mit der Feature-Umsetzung aktualisiert.
00:01:59Das erstellte Notebook enthielt alle Entscheidungen, die Claude währenddessen getroffen hat.
00:02:03Durch dieses Setup muss Claude nicht selbst unzählige Dokumente durchsuchen,
00:02:08was oft zu ungenauem Pattern-Matching und einem überfüllten Kontext führt.
00:02:12Stattdessen nutzt er die RAG-Fähigkeiten von NotebookLM, um präzise Antworten zu erhalten.
00:02:16So bekommt Claude von Gemini zusammengefasste Antworten statt roher Datenmengen
00:02:20und kann sich stärker auf die eigentliche Entwicklung konzentrieren.
00:02:23Du kannst das Notebook auch mit anderen teilen,
00:02:25damit diese prüfen können, ob die Umsetzung ihren Anforderungen entspricht –
00:02:31selbst wenn sie keine Techniker sind, da sie technische Details so in ihrem eigenen Tempo verstehen.
00:02:35NotebookLM ist für die Recherche über mehrere Quellen hinweg konzipiert.
00:02:39Da wir Claude Code ohnehin viel für Recherchen nutzen,
00:02:42gaben wir ein Thema vor und ließen Claude Quellen finden,
00:02:47ein neues Notebook erstellen und diese dort hochladen.
00:02:49Er identifizierte alle Quellen und lud sie in das dafür erstellte Notebook hoch.
00:02:53Recherchen direkt in Claude verbrauchen viel Kontext, da er auch irrelevante Links prüft.
00:02:59Die Aufteilung der Recherche sparte sowohl Zeit als auch Token.
00:03:05Sobald die Quellen im Notebook waren, leerten wir den Kontext,
00:03:11und baten Claude, die Informationen über das CLI in NotebookLM abzurufen,
00:03:15die RAG-Pipeline-Recherche zu finden und die wichtigsten Erkenntnisse per Chat auszugeben.
00:03:20Claude rief das Notebook ab, startete eine Chat-Anfrage und lieferte das Ergebnis.
00:03:26Das ging deutlich schneller als eine normale Recherche mit Claude.
00:03:29Der Vorteil: Benötigen wir später mehr Infos aus derselben Recherche,
00:03:34greifen wir einfach wieder auf das Notebook zu, da die Quellen dort gespeichert sind.
00:03:37Claude muss sie nicht erneut suchen, da das Wissen nun extern verfügbar ist.
00:03:41Hätten wir nur Claude genutzt, könnten wir nicht so einfach darauf zurückgreifen,
00:03:45ohne dass Claude die gesamte Suche von vorne beginnen müsste.
00:03:49So aber können wir die Ergebnisse in künftigen Durchläufen wiederverwenden.
00:03:52Fremden Code zu verstehen, ist oft der schwierigste Teil der Entwicklung.
00:03:57Um das zu vereinfachen, haben wir ebenfalls NotebookLM eingesetzt.
00:04:00Dazu ließen wir Claude das Repository über das GitHub CLI klonen.
00:04:04Danach sollte er mit „RepoMix“ ein Dokument für dieses Repo erstellen.
00:04:09RepoMix ist ein Tool, das Codebasen in ein KI-freundliches Format packt.
00:04:14Man kann entweder das Web-Interface nutzen, um Code in verschiedene Formate zu konvertieren,
00:04:18damit die KI die Codebasis token-effizient verstehen kann.
00:04:23Wir haben jedoch das RepoMix CLI verwendet.
00:04:25Die Installation erfolgte einfach über NPM.
00:04:26Danach war das RepoMix CLI global verfügbar.
00:04:29Wir wiesen Claude an, ein Notebook in NotebookLM zu erstellen
00:04:34und das formatierte Dokument als Quelle hinzuzufügen.
00:04:37Nach dem Klonen wandelte er den Code in ein effizientes Dokument um
00:04:44und fügte es als Textquelle in ein neues Notebook ein.
00:04:47Nachdem die Quelle hinzugefügt war,
00:04:49sollte Claude die Notebook-Tools nutzen, um die Codebasis zu visualisieren
00:04:52und Diagramme zu erstellen, die uns beim Verständnis helfen.
00:04:56Er führte eine Reihe von Visualisierungsbefehlen aus.
00:04:58Die fertigen Diagramme konnten wir uns dann im NotebookLM Studio ansehen.
00:05:03Es wurde ein „Atlas“ erstellt, der als Leitfaden für die Funktionsweise dient.
00:05:07Zudem gab es Mindmaps für jeden Aspekt der App,
00:05:09über die wir einzeln chatten konnten.
00:05:12Es wurden auch Infografiken erstellt, die verschiedene Aspekte visualisierten,
00:05:16was das Verständnis der Codebasis visuell erleichterte,
00:05:19statt sich nur auf reine Textantworten von Claude zu verlassen.
00:05:21Bevor wir weitermachen, ein kurzes Wort zu unserem Sponsor: Make.
00:05:25Die Plattform, die Teams hilft, ihr volles Potenzial auszuschöpfen,
00:05:28indem sie ihr Business mit KI aufbauen und beschleunigen.
00:05:31Das größte Risiko bei autonomen Agenten ist das „Blackbox-Problem“.
00:05:35Man setzt sie ein, kann ihre Entscheidungen aber nicht nachvollziehen.
00:05:37Make löst dies durch eine Kombination aus No-Code-KI-Funktionen
00:05:41und über 3.000 Apps für einen transparenten „Glassbox-Ansatz“.
00:05:46In diesem Video nutze ich deren fertigen Marktforschungs-Agenten,
00:05:49um zu zeigen, wie man mit voller Kontrolle skalieren kann.
00:05:52Neben Tools wie MakeGrid und MCP ist das Reasoning-Panel der eigentliche Gamechanger.
00:05:56Hier sieht man die Logik des Agenten Schritt für Schritt,
00:05:58kann Antworten auf Wissen basieren lassen
00:06:01und live per Chat direkt im Canvas debuggen.
00:06:03Das ist die Transparenz, auf die Entwickler gewartet haben.
00:06:06Schluss mit Raten – starte jetzt die kontrollierte Skalierung.
00:06:09Klicke auf den Link im Kommentar, um die neuen Make-Agenten zu testen.
00:06:11Wenn eine KI auf ein Problem stößt, das sie nicht kennt,
00:06:15nutzt sie Websuchen, um eine Lösung zu finden.
00:06:18Wir fragten uns: Können wir die Websuche überspringen
00:06:22und sie durch eine feste Wissensdatenbank ersetzen?
00:06:25Das Problem der Websuche ist, dass Claude viele Quellen lädt,
00:06:27von denen aber nur wenige wirklich relevant sind.
00:06:30Der Rest verschwendet nur Token.
00:06:32Also ließen wir Claude ein neues Notebook in NotebookLM erstellen
00:06:33und Quellen aus Dokumentationen, Communities
00:06:37und Lösungen verschiedener Plattformen hinzufügen,
00:06:40um es zum zentralen Ort für das Debugging zu machen.
00:06:41Das Notebook wurde erstellt und mit Quellen gefüllt.
00:06:44Am Ende enthielt es offizielle Dokus, Foren,
00:06:48GitHub-Repos, Blogs und weitere Referenzen
00:06:50als Wissensbasis für Debugging-Fragen.
00:06:55Wir speicherten die ID des Notebooks in der „claud.md“
00:06:58und wiesen Claude an, es als Primärquelle für Fehler zu nutzen.
00:07:01Zudem gaben wir vor, bei Fehlern
00:07:05zuerst im Notebook zu suchen, bevor das Web durchforstet wird.
00:07:08Als dann ein Fehler auftrat –
00:07:11etwa eine veraltete Middleware im Projekt –
00:07:13reagierte Claude anders als sonst.
00:07:16Normalerweise würde er erst Dokumente suchen und dann fixen.
00:07:18Stattdessen stellte er eine gezielte Anfrage an das Notebook,
00:07:19wie man auf den neuesten Proxy migriert,
00:07:23und erhielt sofort eine strukturierte Antwort,
00:07:26ohne das gesamte Internet abfragen zu müssen.
00:07:28Diese „claud.md“ und alle weiteren Ressourcen
00:07:31sind in AI Labs Pro verfügbar.
00:07:33Das ist unsere neue Community,
00:07:36in der du fertige Templates, Prompts
00:07:38und Befehle findest, die du direkt in deine Projekte übernehmen kannst.
00:07:41Wenn dir unsere Arbeit gefällt und du den Kanal unterstützen willst,
00:07:43ist das der beste Weg.
00:07:47Links findest du in der Beschreibung.
00:07:49Wir beginnen die KI-Entwicklung immer mit der Dokumentation,
00:07:52also wollten wir diese Dokumente auch in NotebookLM einpflegen.
00:07:53Während der App-Entwicklung erstellten wir Dokumente
00:07:55und ließen Claude ein weiteres Notebook anlegen,
00:07:59um diese dort als Quellen zu hinterlegen.
00:08:02So wurden alle Quellen in NotebookLM gesammelt.
00:08:04Diese organisierten Quellen halfen Claude,
00:08:06das Projekt besser zu verstehen.
00:08:09Bei der Zusammenarbeit mit Nicht-Technikern
00:08:12teilen wir einfach das Notebook, damit sie per Chat
00:08:16Dinge eigenständig nachvollziehen können.
00:08:19Das Notebook hilft aber nicht nur Claude.
00:08:21Egal ob Cursor, Gemini CLI oder andere Tools –
00:08:24das Notebook dient für alle als zentrale Wissensbasis.
00:08:27Über den Notebook-Chat
00:08:28erhält jeder Agent genau die Informationen, die er gerade braucht,
00:08:30statt mühsam Dateien einzeln zu durchsuchen.
00:08:34Claude oder andere Agenten nutzen einfach das Abfragetool,
00:08:36holen sich die relevanten Infos
00:08:39und bauen darauf ihren Kontext auf.
00:08:40Wenn dir unser Content gefällt, drücke gerne den Hype-Button,
00:08:44denn das hilft uns, mehr solcher Videos zu produzieren
00:08:46und mehr Menschen zu erreichen.
00:08:51Wir haben gesehen, wie wir uns selbst in Code einarbeiten,
00:08:53aber wir wollten wissen, ob dieselben Visualisierungen auch Agenten helfen.
00:08:55Also sollte Claude ein weiteres Notebook erstellen
00:08:58und Visualisierungen anlegen, die dem Agenten bei der Orientierung helfen.
00:09:00Es wurden Mindmaps, Infografiken und Tabellen erstellt
00:09:02und im Visualisierungsordner des Projekts gespeichert.
00:09:06Es gab verschiedene Formate für das Verständnis des Agenten,
00:09:10darunter CSV- und Markdown-Tabellen
00:09:12sowie JSON-Dateien für die Mindmaps.
00:09:16Es wurden also Mindmaps für all diese Features erstellt,
00:09:20die als JSON-Dateien exportiert wurden.
00:09:22Sogar ein komplettes Slide-Deck zur visuellen Unterstützung wurde generiert.
00:09:25Wann immer die KI etwas prüfen musste,
00:09:28nutzte sie die entsprechende Mindmap, statt das Dateisystem zu durchsuchen.
00:09:30Daraus leitete sie den Ablauf ab und fragte gezielt im Notebook nach.
00:09:33Ebenso wurden Endpunkte und Flows analysiert,
00:09:36indem die exportierten JSON-Mindmaps abgefragt wurden,
00:09:40statt mühsam durch die Codebasis zu navigieren.
00:09:43Ein weiterer Einsatzzweck von NotebookLM
00:09:46ist das Erfassen gängiger Sicherheitsprobleme
00:09:50bei KI-generierten Websites durch fundierte Quellen.
00:09:54Wir baten Claude, per CLI ein Notebook zu erstellen
00:09:56und Feature-Specs sowie Sicherheitsquellen hinzuzufügen.
00:10:00Dieses Notebook dient Claude als Sicherheitshandbuch,
00:10:03um bei Problemen jederzeit nachschlagen zu können.
00:10:05Alle Quellen wurden hinzugefügt,
00:10:08darunter Sicherheitsleitfäden, OWASP-Cheat-Sheets,
00:10:12spezifische Maßnahmen des Tech-Stacks von GitHub,
00:10:15CVE-Datenbanken und weitere Ressourcen für die App-Sicherheit.
00:10:19Das Notebook enthielt 61 Quellen in verschiedenen Dateien
00:10:22mit Sicherheitshinweisen aus mehreren Quellen.
00:10:26Bei einem Sicherheitscheck nutzte Claude das Handbuch,
00:10:28erstellte einen Bericht und identifizierte mehrere Schwachstellen.
00:10:32Zum Beispiel entdeckte er einen Floating-Point-Fehler bei Transaktionen,
00:10:35der bei hohen Beträgen kritisch sein könnte.
00:10:39Das war nur möglich, weil der Check auf der Recherche in NotebookLM basierte.
00:10:43Damit sind wir am Ende dieses Videos angelangt.
00:10:45Wenn du den Kanal unterstützen willst,
00:10:49nutze gerne den Super-Thanks-Button unten.
00:10:51Vielen Dank fürs Zuschauen und bis zum nächsten Mal!
00:10:54like the floating point error in the transactions that it detected in the app
00:10:58that could be severe if transactions are in high amounts.
00:11:00It was able to do so because the check was grounded in research from notebook LM.
00:11:04That brings us to the end of this video.
00:11:06If you'd like to support the channel and help us keep making videos like this,
00:11:10you can do so by using the super thanks button below.
00:11:13As always, thank you for watching and I'll see you in the next one.

Key Takeaway

Die Integration von NotebookLM über CLI-Schnittstellen transformiert KI-Agenten von unpräzisen Werkzeugen zu hochperformanten Experten, indem sie auf einer kontrollierten, multimodalen Wissensbasis operieren.

Highlights

KI-Agenten scheitern oft an mangelhaftem Kontext

Timeline

Einführung und das Problem des Kontextes

Der Sprecher adressiert das Hauptproblem heutiger KI-Agenten: die schlechte Performance aufgrund fehlerhafter oder unkontrollierter Informationen. Es wird erläutert, dass Agenten nicht an mangelnder Intelligenz scheitern, sondern an der Qualität ihrer Wissensquelle. Google NotebookLM wird als Lösung vorgestellt, die weit über die Funktionen eines bloßen Podcast-Generators hinausgeht. Das Team hat das Tool intensiv getestet, um es als festen Bestandteil in professionelle Entwicklungs-Workflows zu integrieren. Ziel ist es, NotebookLM als präzises Recherche-Werkzeug für stabilere Agenten-Ergebnisse zu nutzen.

Installation und CLI-Steuerung

In diesem Abschnitt wird die technische Basis für die Automatisierung erklärt, wobei der Fokus auf dem CLI-Tool (Command Line Interface) liegt. Die Installation erfolgt über einen einfachen Befehl, gefolgt von der Authentifizierung mittels "NLM auth" über das Google-Konto. Der Sprecher betont, dass das CLI im Vergleich zum MCP-Tool token-effizienter ist und sich besser für langfristige, komplexe Aufgaben eignet. Durch das CLI erhält der Nutzer die volle Kontrolle über die Verwaltung von Quellen, Notebooks und Audio-Reviews. Dies bildet das Fundament, um NotebookLM nahtlos in bestehende Agenten-Pipelines einzubinden.

NotebookLM als Zweites Gehirn für Agenten

Hier wird demonstriert, wie Claude als Agent NotebookLM nutzt, um eine Codebasis und Architekturentscheidungen zu dokumentieren. Anstatt dass Claude mühsam hunderte Dokumente selbst durchsuchen muss, greift er auf die RAG-Fähigkeiten von NotebookLM zu. Dies verhindert ein Überlaufen des Kontextfensters und sorgt für präzisere, von Gemini zusammengefasste Antworten. Das Notebook fungiert hierbei als "Single Source of Truth" für das gesamte Projektteam. Besonders wertvoll ist die Möglichkeit, diese Wissensbasis mit nicht-technischen Stakeholdern zu teilen, damit diese den Fortschritt eigenständig verstehen können.

Effiziente Recherche und Token-Ersparnis

Der Sprecher erklärt, warum herkömmliche Websuchen mit Claude oft ineffizient sind und unnötig viele Token verbrauchen. Stattdessen sucht Claude gezielt nach Quellen, lädt diese in ein NotebookLM-Notebook hoch und führt die eigentliche Analyse dort durch. Dieser Prozess spart massiv Zeit, da relevante Informationen dauerhaft gespeichert bleiben und für zukünftige Anfragen sofort verfügbar sind. Einmal gefundene Erkenntnisse müssen so nicht bei jedem neuen Chat-Durchlauf erneut recherchiert werden. Dies macht den gesamten Rechercheprozess modularer und kosteneffizienter für den professionellen Einsatz.

Code-Verständnis durch RepoMix und Visualisierung

Dieser Teil widmet sich dem Verständnis fremder Codebasen mithilfe des Tools RepoMix, das Repositories in ein KI-optimiertes Format packt. Nach dem Klonen eines GitHub-Repos wird der Code als Textquelle in NotebookLM eingespeist, um dort visuelle Hilfsmittel zu generieren. Es werden automatisch Mindmaps, Diagramme und Infografiken erstellt, die die Struktur der Anwendung verdeutlichen. Ein erstellter "Atlas" dient als Leitfaden, um die Funktionsweise der App schneller zu erfassen als durch bloßes Lesen von Code. So wird das Verständnis der Codebasis visuell unterstützt und die Orientierung für Mensch und Maschine erleichtert.

Sponsoring und das Blackbox-Problem

Der Sprecher stellt die Plattform Make als Sponsor vor, die Teams bei der Automatisierung von Business-Prozessen unterstützt. Ein zentraler Punkt ist das "Blackbox-Problem" autonomer Agenten, bei dem Entscheidungen oft nicht nachvollziehbar sind. Make bietet hierfür einen "Glassbox-Ansatz", der durch Transparenz und ein spezielles Reasoning-Panel überzeugt. Entwickler können die Logik des Agenten Schritt für Schritt verfolgen und direkt im Canvas debuggen. Dies ermöglicht eine kontrollierte Skalierung von KI-Workflows mit über 3.000 integrierten Apps.

Gezieltes Debugging und Wissensdatenbanken

Anstatt bei Fehlern das gesamte Internet zu durchsuchen, wird gezeigt, wie man eine dedizierte Debugging-Wissensbasis in NotebookLM aufbaut. Claude wird angewiesen, bei Fehlern zuerst im Notebook nach Lösungen in offiziellen Dokumentationen, Foren oder GitHub-Issues zu suchen. Im Beispiel wurde ein Fehler bei einer veralteten Middleware so wesentlich schneller behoben, da die Migrationsanleitung bereits im Notebook vorlag. Diese Methode reduziert das Rauschen durch irrelevante Suchergebnisse und führt zu sofortigen, strukturierten Fixes. Der Sprecher weist zudem auf die AI Labs Pro Community hin, in der entsprechende Templates verfügbar sind.

Zentrale Dokumentation und Agenten-Kollaboration

Die Dokumentation wird von Anfang an in NotebookLM gepflegt, um eine universelle Wissensbasis für verschiedene Tools wie Cursor oder Gemini CLI zu schaffen. Alle Agenten greifen über das Abfragetool auf dieselben Informationen zu, was die Konsistenz innerhalb eines Projekts sicherstellt. Die organisierten Quellen helfen der KI, den Kontext der App tiefgreifend zu verstehen, ohne Dateien einzeln scannen zu müssen. Für die Zusammenarbeit mit Nicht-Technikern bietet der Notebook-Chat eine einfache Schnittstelle zur Selbsthilfe. Der Sprecher fordert die Zuschauer auf, den Hype-Button zu drücken, um diesen Content-Stil zu unterstützen.

Visualisierungen für Agenten und Sicherheitschecks

Abschließend wird erläutert, dass visuelle Formate wie JSON-Mindmaps und Markdown-Tabellen auch Agenten bei der Orientierung im Dateisystem helfen. Claude nutzt diese exportierten Strukturen, um gezielte Anfragen zu Endpunkten und Flows zu stellen, statt mühsam durch Code zu navigieren. Ein besonders kritischer Use-Case ist der Sicherheitscheck: Durch das Füttern von NotebookLM mit 61 Sicherheitsquellen konnte Claude einen komplexen Floating-Point-Fehler entdecken. Solche tiefgreifenden Analysen sind nur möglich, weil der Agent auf fundierter, externer Recherche basiert. Das Video endet mit einem Dank an die Zuschauer und dem Hinweis auf Support-Möglichkeiten.

Community Posts

View all posts