KI-Programmierung: Die größte Schwachstelle wurde gerade behoben

AAI LABS
컴퓨터/소프트웨어창업/스타트업AI/미래기술

Transcript

00:00:00In den letzten zwei Monaten hat die KI-Community erkannt, dass MCPs ein riesiges Problem haben.
00:00:04Aus diesem Grund hat die Community tatsächlich einige Lösungen entwickelt.
00:00:08Aber all diese Lösungen weisen enorme Lücken auf.
00:00:10Vor einiger Zeit haben wir ein Video über die Lösung von Docker gemacht,
00:00:12die wir bis jetzt als die beste Lösung für das MCP-Problem betrachteten.
00:00:16Docker hat den „Code-Modus“ veröffentlicht, mit dem Agenten JavaScript-Code schreiben können, der MCP-Tools direkt aufruft.
00:00:21Dies löste das Problem, dass MCP-Tools viel Kontext verbrauchen,
00:00:24da das Tool und die Beschreibung im Kontextfenster offengelegt werden.
00:00:27Wenn Sie also mit vielen MCPs arbeiten, wird Ihr Kontextfenster mit
00:00:32unnötigen Tools überladen, von denen die meisten die meiste Zeit gar nicht benötigt werden.
00:00:36Aber mit dem Docker MCP-Gateway war man auf die von Docker konfigurierten MCPs beschränkt,
00:00:41und es gab Limits für lokale und Remote-MCPs.
00:00:43Außerdem konnte man diese benutzerdefinierten Tools nicht als Funktionen speichern.
00:00:47All dies wurde ausgelöst, als Cloudflare dieses Problem identifizierte und eine Lösung vorschlug,
00:00:51bei der diese Tools als ausführbarer Code existieren, anstatt im Kontextfenster zu liegen.
00:00:56Anthropic, die ursprünglichen Architekten dieses Protokolls, erkannten diese Lücke in
00:01:00ihrem Produkt und veröffentlichten daraufhin ein Papier, das genau dieses Problem hervorhob.
00:01:04Danach begannen die Leute, das Problem ernst zu nehmen und Lösungen zu erforschen.
00:01:09Aber ihre Lösung, jedes Tool in eine TypeScript-Datei umzuwandeln, hat ebenfalls Lücken.
00:01:13Wenn viele MCPs verbunden sind, müssen Sie jedes einzeln in Code umwandeln,
00:01:18und Sie müssen viel Zeit investieren, um sicherzustellen, dass keines davon dabei fehlschlägt.
00:01:22Da dies jedoch ein anerkanntes Problem wurde,
00:01:24versuchen die Leute immer noch, bessere Lösungen hervorzubringen.
00:01:26Und genau da haben wir dieses neue Tool namens „MCP to CLI“ gefunden.
00:01:30MCP to CLI löst das Problem des überladenen Kontexts bei MCPs, indem es alle
00:01:36MCP-Server in CLI-Tools umwandelt, die Sie über Bash-Befehle ausführen können.
00:01:40Wir verwenden in unserem Team primär Cloud Code, und es hat tatsächlich ein CLI-Flag,
00:01:45das einen Teil dieses Problems lösen soll. Dieses Tool behebt die anfängliche MCP-Kontextüberladung,
00:01:50indem es nicht alle Tools vorab im Kontextfenster anzeigt. Stattdessen erlaubt es Cloud Code,
00:01:55jedes Tool dynamisch nach Bedarf zu laden. Aber das lässt ein anderes Problem in Cloud Code offen.
00:02:00Wie Sie wahrscheinlich wissen, geben MCPs ihre Ergebnisse direkt im Kontextfenster aus.
00:02:05Falls das MCP-Tool eine große Ausgabe liefert, bleibt diese ohnehin im Kontextfenster,
00:02:10was zu einer unnötigen Überladung führt. Vielleicht haben Sie auch von anderen Open-Source-Tools
00:02:15wie CLI Hub gehört, die dasselbe Problem angehen, aber ineffizient sind, da sie zur Build-Zeit konvertieren
00:02:20und nicht zur Laufzeit. Was bedeutet „Laufzeitkonvertierung“ eigentlich?
00:02:25Es bedeutet, dass das Tool genau in dem Moment in einen Bash-Befehl umgewandelt wird, in dem es aufgerufen wird.
00:02:29Das mag in Ordnung erscheinen, aber was passiert, wenn das ursprüngliche MCP selbst aktualisiert wird?
00:02:34Da dieses Tool seine MCP-Tools zur Laufzeit aufbaut, wird jede Änderung am eigentlichen MCP automatisch reflektiert.
00:02:39Dies wäre nicht möglich gewesen, wenn wir die Tools zur Build-Zeit erstellen würden.
00:02:43In diesem Fall hätten wir das Tool jedes Mal manuell abrufen und aktualisieren müssen.
00:02:48Man könnte denken, dass das Konvertieren desselben Tools bei jedem Aufruf die Vorgänge verlangsamt.
00:02:53Hier kommt der Caching-Mechanismus ins Spiel, den sie in das Tool eingebaut haben.
00:02:58Er speichert alle MCP-Tools in einem Cache mit einer standardmäßigen Time-to-Live von einer Stunde.
00:03:03Alle häufig verwendeten MCP-Tools landen direkt im Cache und bleiben dort für eine Stunde.
00:03:08Von dort kann der Agent die Tools schneller abrufen, ohne die Flexibilität der Laufzeit zu opfern.
00:03:13Dieses Tool basiert direkt auf dem MCP Python SDK, demselben, das jeder MCP-Server nutzt.
00:03:19Bei allen ausgeführten MCP-Tool-Aufrufen werden diese einfach als Bash-Befehle ausgeführt,
00:03:24und die Antwort wird nur dann in das Kontextfenster des Agenten eingefügt, wenn es angefordert wird.
00:03:30Es verarbeitet auch OpenAPI- und REST-APIs über dieselbe CLI-Schnittstelle, was bedeutet,
00:03:35dass jede API ohne MCP-Server auf genau dieselbe Weise genutzt werden kann. Ohne dieses Tool
00:03:39sind Sie eingeschränkt, welche Arten von MCPs Sie verbinden können. Andere Lösungen bieten
00:03:44meist nicht die Flexibilität, alle Arten von MCPs an einem Ort zu verwalten.
00:03:49Um ihre Behauptungen zur Token-Effizienz zu belegen, haben sie eine automatisierte Testsuite mit
00:03:54Tiktoken ausgeführt. Bei den Tests war das Tool viel günstiger und bot eine viel schnellere Ausführung.
00:03:59Sie müssen uns also nicht einfach beim Wort nehmen; dieses Tool hat die Zahlen auf seiner Seite.
00:04:03Sie können es entweder mit pip auf Ihrem System installieren oder es ohne Installation ausführen.
00:04:07Wir haben uns gegen die Installation entschieden, um die Arbeitsumgebung sauber zu halten.
00:04:13Sie haben auch einen „Skill“ bereitgestellt, der Agenten hilft, besser mit diesem Tool zu arbeiten.
00:04:18Er legt den Workflow fest und gibt Beispiele für Bash-Befehle für Aufgaben wie Authentifizierung und Caching,
00:04:22für die Ihr Agent sonst keinen Kontext hätte. Aber bevor wir weitermachen, ein Wort von
00:04:27unserem Sponsor Orchids. Die meisten KI-Builder bewältigen einfache Mockups gut, scheitern aber
00:04:32bei komplexer Logik oder Multi-Datei-Strukturen. Hier kommt Orchids ins Spiel: der erste KI-Agent,
00:04:36der jede App auf jedem Stack direkt aus Ihrer Umgebung heraus erstellen und bereitstellen kann.
00:04:41Nutzen Sie Ihr eigenes Abo, um Modelle zum Selbstkostenpreis über ChatGPT-, Claude- oder Gemini-Konten
00:04:47auszuführen. Es ist für jede App auf jedem Stack gebaut – nicht nur für das Web.
00:04:52Sie können alles bauen, von mobilen Apps und Chrome-Extensions bis hin zu komplexen KI-Agenten.
00:04:57Schauen Sie sich diese Projekte an: ein OpenClaude-Setup für komplexe Hardware-Logik,
00:05:02ein Bloomberg-Terminal für Live-Daten in Echtzeit und native mobile Apps wie dieser Gebäude-Identifikator,
00:05:07der den Kamera-Feed nutzt. Klicken Sie auf den Link im Kommentar und nutzen Sie den Code „March 15“
00:05:12für 15 % Rabatt. Genau wie Sie wollen auch wir erfolgreich sein. Ein Weg dorthin ist es,
00:05:17Marktlücken zu finden. So kamen wir auf die Idee für ein „Grindr für Pferde“. Aber Scherz beiseite:
00:05:22Der Bau großer Produkte erfordert viele MCP-Tools, da sie viele Abhängigkeiten haben
00:05:27und das Kontextfenster schnell füllen. Wir haben den Agenten über MCP to CLI mit Supabase verbunden,
00:05:34da dies unsere Backend-Infrastruktur war. Dank des zuvor installierten Skills müssen Sie
00:05:38nichts manuell konfigurieren. Dieser Skill erledigt alles von selbst und konfiguriert die MCPs für Sie.
00:05:43Aber bevor Sie loslegen, müssen Sie die Access-Token des jeweiligen MCPs abrufen.
00:05:47Andernfalls laufen Sie in Fehler, so wie wir es taten. Nachdem wir unseren Token generiert hatten,
00:05:52gaben wir ihn an Claude weiter. Sobald alles korrekt konfiguriert ist, sollten die Tools
00:05:57einsatzbereit sein. Sie denken vielleicht: Wenn dieses Tool als Bash-Befehl läuft, ist es dann sicher,
00:06:01sensible Daten wie API-Keys darin zu haben? Könnten sie bei einer Prozessliste sichtbar sein?
00:06:06Aber dieses Tool fügt eine Schutzschicht hinzu. Es schreibt sensible Daten nicht in die
00:06:11Kommandozeilenargumente. Stattdessen werden sie über Umgebungsvariablen verarbeitet,
00:06:15oder es verweist auf einen Dateipfad, in dem die Token gespeichert sind,
00:06:21oder nutzt einen Secret Manager. Es ist also sicher. Zusätzlich zur Supabase-Verbindung
00:06:26haben wir das GitHub-MCP für die Versionskontrolle und das Puppeteer-MCP für Browser-Tests verbunden,
00:06:32sowie das Context 7 MCP, um den Agenten mit der aktuellen Dokumentation zu füttern.
00:06:37Nachdem alle MCPs verbunden waren, ließen wir Claude alles verifizieren.
00:06:42Es bestätigte, dass alle vier MCPs verbunden waren – in unserem Fall insgesamt 78 Tools.
00:06:47Wenn Ihnen unser Content gefällt, drücken Sie den Hype-Button; das hilft uns sehr.
00:06:52Nachdem die Verbindung stand, war es Zeit für die schrittweise Implementierung der App.
00:06:57Wir begannen damit, den clientseitigen Code mit dem Supabase-Backend zu verknüpfen.
00:07:02Als Claude den Befehl ausführte, um das Projekt zu erstellen, bemerkten wir, dass der
00:07:07Access-Token nicht direkt im Aufruf stand. Stattdessen wurde auf unsere .env.local-Datei verwiesen.
00:07:12Das Projekt wurde erstellt, alles eingerichtet und die Logik für die Verbindung hinzugefügt.
00:07:17Wir sahen jedoch, dass eine Middleware-Datei für die Session-Logik verwendet wurde, obwohl
00:07:22diese veraltet ist. Die neue Version von Next.js nutzt den Proxy, und wir wussten,
00:07:27dass dies zu Fehlern führen würde. Das zeigt, dass das bloße Verbinden von Tools nicht ausreicht,
00:07:31damit der Agent sie auch korrekt einsetzt. Also erstellten wir eine claude.md-Datei
00:07:36und wiesen Claude an, vor dem Schreiben von Code immer das Context 7 MCP zu nutzen.
00:07:42So stellt er sicher, dass er die aktuelle Dokumentation vor der Implementierung prüft.
00:07:47Nachdem die Tabellen und die Authentifizierung auf Supabase fertig waren, wiesen wir auf die Warnung hin.
00:07:52Daraufhin nutzte Claude endlich das Context 7 MCP, um die Doku abzurufen und das Problem zu lösen.
00:07:57Bei der weiteren Untersuchung des Tools fanden wir jedoch heraus, dass es einen noch besseren Weg gibt
00:08:03als die claude.md-Datei. Skills sind besser, da ihre Beschreibungen direkt in den Kontext
00:08:07des Agenten geladen werden. Er weiß also bereits, welche Tools verfügbar sind und wann er sie nutzen sollte,
00:08:11anstatt dass wir nur Anweisungen in eine Datei werfen und hoffen, dass er sie liest.
00:08:16Wir ließen ihn also Skills für alle verbundenen MCPs erstellen.
00:08:21Claude erstellte für jedes MCP einen Skill mit Details zu den Tools und deren Anwendung.
00:08:26Damit war dieses Problem gelöst, aber die App war noch weit von der Funktionalität entfernt.
00:08:32Das Feedback (der Pferde) war, dass sie ungeduldig wurden, weil sie nicht chatten konnten.
00:08:36Also sollte Claude den Chat funktionsfähig machen. Beim Testen stellten wir fest,
00:08:41dass die Nachrichten nicht luden. Wir ließen ihn das Puppeteer-MCP nutzen, um den Nachrichtenfluss zu testen.
00:08:46Ein Agent, der klicken und scrollen kann, findet Fehler, die bei einer statischen Code-Review
00:08:51unentdeckt bleiben. Zu Testzwecken wurden zwei Benutzer erstellt. Allerdings konnte Claude
00:08:56die Session-Daten nicht über Tool-Aufrufe hinweg beibehalten, da jeder Aufruf eine neue Instanz startete.
00:09:01Die Zeit, die für die Arbeit im Headless-Browser nötig war, ließ uns etwas erkennen:
00:09:06Es wäre besser, das MCP direkt damit umgehen zu lassen. Es war viel schneller
00:09:10als die sieben Minuten, die wir zuvor für eine einfache Aufgabe verschwendet hatten.
00:09:15Wir bevorzugen Claudes eigene Browser-Extension, die Sessions für End-to-End-Tests besser speichert.
00:09:21MCPs laufen als persistente Prozesse, weshalb sie den Status über die gesamte Sitzung halten können.
00:09:25Dieses Tool bietet zudem Kontrolle über das Ausgabeformat wie JSON oder Rohdaten.
00:09:30Es unterstützt auch „Toon“, ein token-effizientes Format für die LLM-Nutzung.
00:09:35Wenn wir mit MCPs wie Context 7 arbeiten, liefern diese oft riesige Ausgaben direkt in den Kontext.
00:09:40Um das zu verhindern, haben wir in der claude.md festgelegt, dass bei Context 7
00:09:46das Toon-Format genutzt werden soll. Es ist effizient, da es Einrückungen und Listen kombiniert
00:09:51und Informationen viel kompakter darstellt als JSON oder YAML. So verschwenden Sie keine Token.
00:09:57Aber der größte Durchbruch kam durch etwas, das bei nativer MCP-Verarbeitung gar nicht möglich war.
00:10:02Erinnern Sie sich, dass Cursor einen Workflow zur Kontextbearbeitung veröffentlicht hat?
00:10:07Sie behandelten MCP-Ergebnisse wie Dateien und ließen den Agenten Bash-Skripte wie „grep“ nutzen,
00:10:12um Daten zu extrahieren. Wir haben das in unserem letzten Video gezeigt.
00:10:16Wir versuchten, dies bei anderen Agenten umzusetzen, aber da MCPs dort nativ gehandhabt werden,
00:10:22war das Ergebnis enttäuschend. Mit dieser CLI ist es nun möglich, da MCPs wie Bash-Tools behandelt werden.
00:10:27Wir fügten in die claude.md ein, dass große MCP-Ausgaben nicht in den Kontext geladen,
00:10:32sondern in einen angegebenen Dateipfad umgeleitet werden sollen. Wir trackten den Fortschritt
00:10:37über eine progress.json. Nach dieser Anweisung sollte Claude ein Feature implementieren.
00:10:43Er nutzte Context 7, leitete die Ausgabe jedoch in eine Datei um und extrahierte die Daten per grep.
00:10:49Die claude.md-Datei mit allen Best Practices für dieses Tool ist in AI Labs Pro verfügbar.
00:10:54Das ist unsere neue Community, in der Sie fertige Vorlagen für Ihre Projekte finden.
00:10:59Wenn Ihnen unsere Arbeit gefällt, ist dies der beste Weg, den Kanal zu unterstützen.
00:11:05Der Link dazu steht in der Beschreibung. Damit sind wir am Ende des Videos angelangt.
00:11:10Wenn Sie uns unterstützen möchten, können Sie das über den „Super Thanks“-Button tun.
00:11:16Wie immer vielen Dank fürs Zuschauen, und wir sehen uns beim nächsten Mal!
00:11:20die Sie direkt in Ihre Projekte für dieses Video und alle vorherigen einbauen können. Wenn Sie
00:11:25einen Mehrwert in unserer Arbeit sehen und den Kanal unterstützen möchten, ist dies der beste Weg. Der Link ist in der
00:11:29Beschreibung. Das bringt uns zum Ende dieses Videos. Wenn Sie den Kanal unterstützen und
00:11:33uns helfen möchten, weiterhin solche Videos zu machen, können Sie dies über den Super Thanks-Button unten tun.
00:11:38Wie immer vielen Dank fürs Zuschauen, und wir sehen uns im nächsten Video.

Key Takeaway

Durch die Umwandlung von MCP-Tools in eine CLI-Schnittstelle lässt sich die Effizienz von KI-Agenten massiv steigern, da das Kontextfenster geschont und komplexe Datenverarbeitung außerhalb des Prompts ermöglicht wird.

Highlights

Das Problem der Kontextüberladung bei Model Context Protocol (MCP) Tools wurde als größte Schwachstelle identifiziert.

Das neue Tool "MCP to CLI" wandelt MCP-Server in CLI-Tools um, um das Kontextfenster von KI-Agenten zu entlasten.

Laufzeitkonvertierung und ein intelligenter Caching-Mechanismus ermöglichen maximale Flexibilität und Geschwindigkeit.

Sicherheitsbedenken werden durch die Nutzung von Umgebungsvariablen und Secret Managern statt direkter Kommandozeilenargumente adressiert.

Durch das "Toon"-Format und die Umleitung großer Ausgaben in Dateien wird der Token-Verbrauch drastisch reduziert.

Die Integration von "Skills" ermöglicht es Agenten, komplexe Workflows und Dokumentationen eigenständig zu berücksichtigen.

Timeline

Das MCP-Problem und bisherige Lösungsansätze

Der Sprecher erläutert, dass die manuelle Einbindung vieler MCP-Tools das Kontextfenster von KI-Modellen mit unnötigen Beschreibungen überlädt. Frühere Ansätze von Docker und Cloudflare boten zwar Teillösungen wie den Code-Modus, waren jedoch oft auf bestimmte Umgebungen beschränkt oder unflexibel. Anthropic selbst hat diese Lücke im Protokoll erkannt und ein entsprechendes Papier veröffentlicht, um die Community zu sensibilisieren. Das Hauptproblem bleibt, dass Tools als statischer Text im Kontext existieren, anstatt als ausführbarer Code. Dies führt bei umfangreichen Projekten schnell zu einer Erschöpfung der verfügbaren Token-Kapazität.

Einführung in MCP to CLI und Laufzeitvorteile

Das Tool "MCP to CLI" wird als Lösung präsentiert, die MCP-Server dynamisch in Bash-Befehle umwandelt. Im Gegensatz zu statischen Konvertierungen zur Build-Zeit erfolgt hier die Umwandlung zur Laufzeit, wodurch Aktualisierungen an den ursprünglichen MCPs sofort übernommen werden. Ein integrierter Caching-Mechanismus mit einer Standard-TTL von einer Stunde sorgt dafür, dass die Performance trotz der dynamischen Natur hoch bleibt. Der Agent lädt Tools nur noch bei Bedarf, was die initiale Kontextüberladung eliminiert. Dies ist besonders für Entwicklerteams relevant, die mit einer Vielzahl von spezialisierten Schnittstellen arbeiten.

Technische Details, Sicherheit und Effizienz

Basierend auf dem offiziellen Python SDK ermöglicht das Tool die Ausführung von MCP-, OpenAPI- und REST-Schnittstellen über eine einheitliche CLI. Automatisierte Tests mit Tiktoken belegen, dass dieser Ansatz nicht nur schneller, sondern durch die Token-Ersparnis auch kostengünstiger ist. In Bezug auf die Sicherheit betont das Video, dass sensible Daten wie API-Keys niemals in den Prozesslisten sichtbar sind, da sie über Umgebungsvariablen oder Dateien verwaltet werden. Nutzer können das Tool bequem über pip installieren oder direkt ohne lokale Installation ausführen, um die Arbeitsumgebung sauber zu halten. Ein spezieller "Skill" hilft dem Agenten zudem, den richtigen Workflow für Authentifizierung und Caching zu verstehen.

Praktische Anwendung mit Supabase und GitHub

In diesem Abschnitt wird die praktische Implementierung einer App unter Verwendung von Supabase, GitHub und Puppeteer demonstriert. Der Sprecher zeigt, wie der Agent dank der installierten Skills automatisch die notwendigen Konfigurationen vornimmt, sofern die Access-Token bereitgestellt werden. Ein interessantes Detail ist die Erwähnung des Sponsors Orchids, eines KI-Agenten für komplexe Multi-Datei-Strukturen, der das Bauen von Apps unterstützt. Die Demonstration verdeutlicht, dass selbst bei 78 verbundenen Tools der Kontext des Agenten übersichtlich bleibt. Dies ermöglicht eine reibungslose Koordination zwischen Backend-Infrastruktur und Versionskontrolle ohne manuelle Fehlkonfigurationen.

Optimierung durch Dokumentations-MCPs und Toon-Format

Es wird aufgezeigt, dass das bloße Verbinden von Tools nicht ausreicht; der Agent muss auch wissen, wie er aktuelle Dokumentationen nutzt. Durch die Einbindung des "Context 7" MCPs und einer speziellen Anleitung in einer claude.md-Datei wird der Agent angewiesen, veraltete Code-Patterns zu vermeiden. Um die oft riesigen Ausgaben von Dokumentations-Tools zu bändigen, wird das hochgradig token-effiziente "Toon"-Format eingeführt. Dieses Format nutzt kompakte Listen und Einrückungen anstelle von sperrigem JSON, um Informationen platzsparend zu übertragen. Dies löst das Problem, dass große Tool-Antworten den Agenten daran hindern könnten, der eigentlichen Logik zu folgen.

Fortgeschrittene Workflows und Fazit

Der größte Durchbruch wird durch die Umleitung von Tool-Ausgaben in physische Dateien erzielt, die der Agent anschließend mit Standard-Bash-Befehlen wie grep filtert. Dies ahmt fortschrittliche Workflows nach, wie sie von Cursor bekannt sind, und ermöglicht eine präzise Datenextraktion ohne Kontext-Flutung. Der Sprecher verweist abschließend auf AI Labs Pro, wo Nutzer fertige Vorlagen und die im Video gezeigte Konfigurationsdatei finden können. Das Video endet mit einem Aufruf zur Unterstützung des Kanals durch "Super Thanks" und einem positiven Ausblick auf die zukünftige KI-Programmierung. Die Kombination aus CLI-Flexibilität und intelligentem Ressourcenmanagement markiert einen Wendepunkt für komplexe Agenten-Workflows.

Community Posts

View all posts