00:00:00Werden KI-Agenten immer schwächer oder arbeiten sie einfach nur mit schlechten Informationen?
00:00:03Das Hauptproblem bei Agenten ist ihr Kontext.
00:00:06Es liegt nicht daran, dass Agenten keine Informationen haben oder sich nichts merken können,
00:00:09sondern dass sie nicht auf einer kontrollierten Wissensquelle basieren.
00:00:12Das bedeutet, dass die Arbeit mit fehlerhaften Informationen der Grund für ihre schlechte Performance ist.
00:00:15Vielleicht kennst du bereits Google NotebookLM,
00:00:18ein Tool für exzellente Recherchen, das gleichzeitig ein Podcast-Generator ist.
00:00:22Aber was wäre, wenn es noch viel mehr könnte?
00:00:23Unser Team hat dieses Recherche-Tool aus verschiedenen Blickwinkeln getestet,
00:00:27um einen Weg zu finden, es in unsere Entwicklungs-Workflows zu integrieren.
00:00:30Und ehrlich gesagt haben wir nicht erwartet, dass es so gut passt.
00:00:32Im Laufe des Videos nutzt unser Team NotebookLM über das CLI-Tool.
00:00:36Es ist eine Schnittstelle, die dir die volle Kontrolle
00:00:39über die Verwaltung deiner Notebooks, Quellen und Audio-Reviews gibt.
00:00:44Die Installation ist simpel: Nur ein Befehl und fertig.
00:00:47Nach der Installation kannst du sie mit dem Help-Befehl überprüfen.
00:00:51Dieser zeigt alle verfügbaren Befehle zur Steuerung der Quellen,
00:00:56für multimodale Inputs und alle weiteren Funktionen des Tools an.
00:01:00Bevor du es nutzt, authentifiziere das CLI mit deinem Google-Konto über den Befehl „NLM auth“.
00:01:05Sobald du ihn ausführst, öffnet sich ein Chrome-Fenster zum Anmelden.
00:01:08Danach speichert NLM deine Zugangsdaten für die künftige Verwendung.
00:01:11NotebookLM ist via CLI und MCP zugänglich,
00:01:15beide vom selben Entwickler – du kannst also wählen, was dir lieber ist.
00:01:18Wir haben uns für das CLI entschieden, da es token-effizient ist
00:01:21und auch bei langfristigen Aufgaben keine Probleme macht.
00:01:24Wir können NotebookLM als „zweites Gehirn“ für KI-Agenten nutzen,
00:01:27indem wir Informationen zur Codebasis füttern und alles laufend dokumentieren lassen.
00:01:31Dazu haben wir Anweisungen in der Datei „claud.md“ hinterlegt
00:01:35und festgelegt, dass das gesamte Projektwissen sowie Architekturentscheidungen
00:01:38und alle weiteren Dokumentationen im Notebook gespeichert werden sollen.
00:01:41Dieses Notebook diente als einzige verlässliche Wissensquelle.
00:01:43Wir haben Claude genutzt, um das Notebook per CLI zu erstellen, und die ID in der „claud.md“ gespeichert.
00:01:49Bei der Entwicklung eines Features nutzen wir zuerst den Planungsmodus.
00:01:53Nach der Implementierung und erfolgreichem Build
00:01:55wurde das Notebook wie angewiesen mit der Feature-Umsetzung aktualisiert.
00:01:59Das erstellte Notebook enthielt alle Entscheidungen, die Claude währenddessen getroffen hat.
00:02:03Durch dieses Setup muss Claude nicht selbst unzählige Dokumente durchsuchen,
00:02:08was oft zu ungenauem Pattern-Matching und einem überfüllten Kontext führt.
00:02:12Stattdessen nutzt er die RAG-Fähigkeiten von NotebookLM, um präzise Antworten zu erhalten.
00:02:16So bekommt Claude von Gemini zusammengefasste Antworten statt roher Datenmengen
00:02:20und kann sich stärker auf die eigentliche Entwicklung konzentrieren.
00:02:23Du kannst das Notebook auch mit anderen teilen,
00:02:25damit diese prüfen können, ob die Umsetzung ihren Anforderungen entspricht –
00:02:31selbst wenn sie keine Techniker sind, da sie technische Details so in ihrem eigenen Tempo verstehen.
00:02:35NotebookLM ist für die Recherche über mehrere Quellen hinweg konzipiert.
00:02:39Da wir Claude Code ohnehin viel für Recherchen nutzen,
00:02:42gaben wir ein Thema vor und ließen Claude Quellen finden,
00:02:47ein neues Notebook erstellen und diese dort hochladen.
00:02:49Er identifizierte alle Quellen und lud sie in das dafür erstellte Notebook hoch.
00:02:53Recherchen direkt in Claude verbrauchen viel Kontext, da er auch irrelevante Links prüft.
00:02:59Die Aufteilung der Recherche sparte sowohl Zeit als auch Token.
00:03:05Sobald die Quellen im Notebook waren, leerten wir den Kontext,
00:03:11und baten Claude, die Informationen über das CLI in NotebookLM abzurufen,
00:03:15die RAG-Pipeline-Recherche zu finden und die wichtigsten Erkenntnisse per Chat auszugeben.
00:03:20Claude rief das Notebook ab, startete eine Chat-Anfrage und lieferte das Ergebnis.
00:03:26Das ging deutlich schneller als eine normale Recherche mit Claude.
00:03:29Der Vorteil: Benötigen wir später mehr Infos aus derselben Recherche,
00:03:34greifen wir einfach wieder auf das Notebook zu, da die Quellen dort gespeichert sind.
00:03:37Claude muss sie nicht erneut suchen, da das Wissen nun extern verfügbar ist.
00:03:41Hätten wir nur Claude genutzt, könnten wir nicht so einfach darauf zurückgreifen,
00:03:45ohne dass Claude die gesamte Suche von vorne beginnen müsste.
00:03:49So aber können wir die Ergebnisse in künftigen Durchläufen wiederverwenden.
00:03:52Fremden Code zu verstehen, ist oft der schwierigste Teil der Entwicklung.
00:03:57Um das zu vereinfachen, haben wir ebenfalls NotebookLM eingesetzt.
00:04:00Dazu ließen wir Claude das Repository über das GitHub CLI klonen.
00:04:04Danach sollte er mit „RepoMix“ ein Dokument für dieses Repo erstellen.
00:04:09RepoMix ist ein Tool, das Codebasen in ein KI-freundliches Format packt.
00:04:14Man kann entweder das Web-Interface nutzen, um Code in verschiedene Formate zu konvertieren,
00:04:18damit die KI die Codebasis token-effizient verstehen kann.
00:04:23Wir haben jedoch das RepoMix CLI verwendet.
00:04:25Die Installation erfolgte einfach über NPM.
00:04:26Danach war das RepoMix CLI global verfügbar.
00:04:29Wir wiesen Claude an, ein Notebook in NotebookLM zu erstellen
00:04:34und das formatierte Dokument als Quelle hinzuzufügen.
00:04:37Nach dem Klonen wandelte er den Code in ein effizientes Dokument um
00:04:44und fügte es als Textquelle in ein neues Notebook ein.
00:04:47Nachdem die Quelle hinzugefügt war,
00:04:49sollte Claude die Notebook-Tools nutzen, um die Codebasis zu visualisieren
00:04:52und Diagramme zu erstellen, die uns beim Verständnis helfen.
00:04:56Er führte eine Reihe von Visualisierungsbefehlen aus.
00:04:58Die fertigen Diagramme konnten wir uns dann im NotebookLM Studio ansehen.
00:05:03Es wurde ein „Atlas“ erstellt, der als Leitfaden für die Funktionsweise dient.
00:05:07Zudem gab es Mindmaps für jeden Aspekt der App,
00:05:09über die wir einzeln chatten konnten.
00:05:12Es wurden auch Infografiken erstellt, die verschiedene Aspekte visualisierten,
00:05:16was das Verständnis der Codebasis visuell erleichterte,
00:05:19statt sich nur auf reine Textantworten von Claude zu verlassen.
00:05:21Bevor wir weitermachen, ein kurzes Wort zu unserem Sponsor: Make.
00:05:25Die Plattform, die Teams hilft, ihr volles Potenzial auszuschöpfen,
00:05:28indem sie ihr Business mit KI aufbauen und beschleunigen.
00:05:31Das größte Risiko bei autonomen Agenten ist das „Blackbox-Problem“.
00:05:35Man setzt sie ein, kann ihre Entscheidungen aber nicht nachvollziehen.
00:05:37Make löst dies durch eine Kombination aus No-Code-KI-Funktionen
00:05:41und über 3.000 Apps für einen transparenten „Glassbox-Ansatz“.
00:05:46In diesem Video nutze ich deren fertigen Marktforschungs-Agenten,
00:05:49um zu zeigen, wie man mit voller Kontrolle skalieren kann.
00:05:52Neben Tools wie MakeGrid und MCP ist das Reasoning-Panel der eigentliche Gamechanger.
00:05:56Hier sieht man die Logik des Agenten Schritt für Schritt,
00:05:58kann Antworten auf Wissen basieren lassen
00:06:01und live per Chat direkt im Canvas debuggen.
00:06:03Das ist die Transparenz, auf die Entwickler gewartet haben.
00:06:06Schluss mit Raten – starte jetzt die kontrollierte Skalierung.
00:06:09Klicke auf den Link im Kommentar, um die neuen Make-Agenten zu testen.
00:06:11Wenn eine KI auf ein Problem stößt, das sie nicht kennt,
00:06:15nutzt sie Websuchen, um eine Lösung zu finden.
00:06:18Wir fragten uns: Können wir die Websuche überspringen
00:06:22und sie durch eine feste Wissensdatenbank ersetzen?
00:06:25Das Problem der Websuche ist, dass Claude viele Quellen lädt,
00:06:27von denen aber nur wenige wirklich relevant sind.
00:06:30Der Rest verschwendet nur Token.
00:06:32Also ließen wir Claude ein neues Notebook in NotebookLM erstellen
00:06:33und Quellen aus Dokumentationen, Communities
00:06:37und Lösungen verschiedener Plattformen hinzufügen,
00:06:40um es zum zentralen Ort für das Debugging zu machen.
00:06:41Das Notebook wurde erstellt und mit Quellen gefüllt.
00:06:44Am Ende enthielt es offizielle Dokus, Foren,
00:06:48GitHub-Repos, Blogs und weitere Referenzen
00:06:50als Wissensbasis für Debugging-Fragen.
00:06:55Wir speicherten die ID des Notebooks in der „claud.md“
00:06:58und wiesen Claude an, es als Primärquelle für Fehler zu nutzen.
00:07:01Zudem gaben wir vor, bei Fehlern
00:07:05zuerst im Notebook zu suchen, bevor das Web durchforstet wird.
00:07:08Als dann ein Fehler auftrat –
00:07:11etwa eine veraltete Middleware im Projekt –
00:07:13reagierte Claude anders als sonst.
00:07:16Normalerweise würde er erst Dokumente suchen und dann fixen.
00:07:18Stattdessen stellte er eine gezielte Anfrage an das Notebook,
00:07:19wie man auf den neuesten Proxy migriert,
00:07:23und erhielt sofort eine strukturierte Antwort,
00:07:26ohne das gesamte Internet abfragen zu müssen.
00:07:28Diese „claud.md“ und alle weiteren Ressourcen
00:07:31sind in AI Labs Pro verfügbar.
00:07:33Das ist unsere neue Community,
00:07:36in der du fertige Templates, Prompts
00:07:38und Befehle findest, die du direkt in deine Projekte übernehmen kannst.
00:07:41Wenn dir unsere Arbeit gefällt und du den Kanal unterstützen willst,
00:07:43ist das der beste Weg.
00:07:47Links findest du in der Beschreibung.
00:07:49Wir beginnen die KI-Entwicklung immer mit der Dokumentation,
00:07:52also wollten wir diese Dokumente auch in NotebookLM einpflegen.
00:07:53Während der App-Entwicklung erstellten wir Dokumente
00:07:55und ließen Claude ein weiteres Notebook anlegen,
00:07:59um diese dort als Quellen zu hinterlegen.
00:08:02So wurden alle Quellen in NotebookLM gesammelt.
00:08:04Diese organisierten Quellen halfen Claude,
00:08:06das Projekt besser zu verstehen.
00:08:09Bei der Zusammenarbeit mit Nicht-Technikern
00:08:12teilen wir einfach das Notebook, damit sie per Chat
00:08:16Dinge eigenständig nachvollziehen können.
00:08:19Das Notebook hilft aber nicht nur Claude.
00:08:21Egal ob Cursor, Gemini CLI oder andere Tools –
00:08:24das Notebook dient für alle als zentrale Wissensbasis.
00:08:27Über den Notebook-Chat
00:08:28erhält jeder Agent genau die Informationen, die er gerade braucht,
00:08:30statt mühsam Dateien einzeln zu durchsuchen.
00:08:34Claude oder andere Agenten nutzen einfach das Abfragetool,
00:08:36holen sich die relevanten Infos
00:08:39und bauen darauf ihren Kontext auf.
00:08:40Wenn dir unser Content gefällt, drücke gerne den Hype-Button,
00:08:44denn das hilft uns, mehr solcher Videos zu produzieren
00:08:46und mehr Menschen zu erreichen.
00:08:51Wir haben gesehen, wie wir uns selbst in Code einarbeiten,
00:08:53aber wir wollten wissen, ob dieselben Visualisierungen auch Agenten helfen.
00:08:55Also sollte Claude ein weiteres Notebook erstellen
00:08:58und Visualisierungen anlegen, die dem Agenten bei der Orientierung helfen.
00:09:00Es wurden Mindmaps, Infografiken und Tabellen erstellt
00:09:02und im Visualisierungsordner des Projekts gespeichert.
00:09:06Es gab verschiedene Formate für das Verständnis des Agenten,
00:09:10darunter CSV- und Markdown-Tabellen
00:09:12sowie JSON-Dateien für die Mindmaps.
00:09:16Es wurden also Mindmaps für all diese Features erstellt,
00:09:20die als JSON-Dateien exportiert wurden.
00:09:22Sogar ein komplettes Slide-Deck zur visuellen Unterstützung wurde generiert.
00:09:25Wann immer die KI etwas prüfen musste,
00:09:28nutzte sie die entsprechende Mindmap, statt das Dateisystem zu durchsuchen.
00:09:30Daraus leitete sie den Ablauf ab und fragte gezielt im Notebook nach.
00:09:33Ebenso wurden Endpunkte und Flows analysiert,
00:09:36indem die exportierten JSON-Mindmaps abgefragt wurden,
00:09:40statt mühsam durch die Codebasis zu navigieren.
00:09:43Ein weiterer Einsatzzweck von NotebookLM
00:09:46ist das Erfassen gängiger Sicherheitsprobleme
00:09:50bei KI-generierten Websites durch fundierte Quellen.
00:09:54Wir baten Claude, per CLI ein Notebook zu erstellen
00:09:56und Feature-Specs sowie Sicherheitsquellen hinzuzufügen.
00:10:00Dieses Notebook dient Claude als Sicherheitshandbuch,
00:10:03um bei Problemen jederzeit nachschlagen zu können.
00:10:05Alle Quellen wurden hinzugefügt,
00:10:08darunter Sicherheitsleitfäden, OWASP-Cheat-Sheets,
00:10:12spezifische Maßnahmen des Tech-Stacks von GitHub,
00:10:15CVE-Datenbanken und weitere Ressourcen für die App-Sicherheit.
00:10:19Das Notebook enthielt 61 Quellen in verschiedenen Dateien
00:10:22mit Sicherheitshinweisen aus mehreren Quellen.
00:10:26Bei einem Sicherheitscheck nutzte Claude das Handbuch,
00:10:28erstellte einen Bericht und identifizierte mehrere Schwachstellen.
00:10:32Zum Beispiel entdeckte er einen Floating-Point-Fehler bei Transaktionen,
00:10:35der bei hohen Beträgen kritisch sein könnte.
00:10:39Das war nur möglich, weil der Check auf der Recherche in NotebookLM basierte.
00:10:43Damit sind wir am Ende dieses Videos angelangt.
00:10:45Wenn du den Kanal unterstützen willst,
00:10:49nutze gerne den Super-Thanks-Button unten.
00:10:51Vielen Dank fürs Zuschauen und bis zum nächsten Mal!
00:10:54like the floating point error in the transactions that it detected in the app
00:10:58that could be severe if transactions are in high amounts.
00:11:00It was able to do so because the check was grounded in research from notebook LM.
00:11:04That brings us to the end of this video.
00:11:06If you'd like to support the channel and help us keep making videos like this,
00:11:10you can do so by using the super thanks button below.
00:11:13As always, thank you for watching and I'll see you in the next one.