00:00:00In den letzten zwei Monaten hat die KI-Community erkannt, dass MCPs ein riesiges Problem haben.
00:00:04Aus diesem Grund hat die Community tatsächlich einige Lösungen entwickelt.
00:00:08Aber all diese Lösungen weisen enorme Lücken auf.
00:00:10Vor einiger Zeit haben wir ein Video über die Lösung von Docker gemacht,
00:00:12die wir bis jetzt als die beste Lösung für das MCP-Problem betrachteten.
00:00:16Docker hat den „Code-Modus“ veröffentlicht, mit dem Agenten JavaScript-Code schreiben können, der MCP-Tools direkt aufruft.
00:00:21Dies löste das Problem, dass MCP-Tools viel Kontext verbrauchen,
00:00:24da das Tool und die Beschreibung im Kontextfenster offengelegt werden.
00:00:27Wenn Sie also mit vielen MCPs arbeiten, wird Ihr Kontextfenster mit
00:00:32unnötigen Tools überladen, von denen die meisten die meiste Zeit gar nicht benötigt werden.
00:00:36Aber mit dem Docker MCP-Gateway war man auf die von Docker konfigurierten MCPs beschränkt,
00:00:41und es gab Limits für lokale und Remote-MCPs.
00:00:43Außerdem konnte man diese benutzerdefinierten Tools nicht als Funktionen speichern.
00:00:47All dies wurde ausgelöst, als Cloudflare dieses Problem identifizierte und eine Lösung vorschlug,
00:00:51bei der diese Tools als ausführbarer Code existieren, anstatt im Kontextfenster zu liegen.
00:00:56Anthropic, die ursprünglichen Architekten dieses Protokolls, erkannten diese Lücke in
00:01:00ihrem Produkt und veröffentlichten daraufhin ein Papier, das genau dieses Problem hervorhob.
00:01:04Danach begannen die Leute, das Problem ernst zu nehmen und Lösungen zu erforschen.
00:01:09Aber ihre Lösung, jedes Tool in eine TypeScript-Datei umzuwandeln, hat ebenfalls Lücken.
00:01:13Wenn viele MCPs verbunden sind, müssen Sie jedes einzeln in Code umwandeln,
00:01:18und Sie müssen viel Zeit investieren, um sicherzustellen, dass keines davon dabei fehlschlägt.
00:01:22Da dies jedoch ein anerkanntes Problem wurde,
00:01:24versuchen die Leute immer noch, bessere Lösungen hervorzubringen.
00:01:26Und genau da haben wir dieses neue Tool namens „MCP to CLI“ gefunden.
00:01:30MCP to CLI löst das Problem des überladenen Kontexts bei MCPs, indem es alle
00:01:36MCP-Server in CLI-Tools umwandelt, die Sie über Bash-Befehle ausführen können.
00:01:40Wir verwenden in unserem Team primär Cloud Code, und es hat tatsächlich ein CLI-Flag,
00:01:45das einen Teil dieses Problems lösen soll. Dieses Tool behebt die anfängliche MCP-Kontextüberladung,
00:01:50indem es nicht alle Tools vorab im Kontextfenster anzeigt. Stattdessen erlaubt es Cloud Code,
00:01:55jedes Tool dynamisch nach Bedarf zu laden. Aber das lässt ein anderes Problem in Cloud Code offen.
00:02:00Wie Sie wahrscheinlich wissen, geben MCPs ihre Ergebnisse direkt im Kontextfenster aus.
00:02:05Falls das MCP-Tool eine große Ausgabe liefert, bleibt diese ohnehin im Kontextfenster,
00:02:10was zu einer unnötigen Überladung führt. Vielleicht haben Sie auch von anderen Open-Source-Tools
00:02:15wie CLI Hub gehört, die dasselbe Problem angehen, aber ineffizient sind, da sie zur Build-Zeit konvertieren
00:02:20und nicht zur Laufzeit. Was bedeutet „Laufzeitkonvertierung“ eigentlich?
00:02:25Es bedeutet, dass das Tool genau in dem Moment in einen Bash-Befehl umgewandelt wird, in dem es aufgerufen wird.
00:02:29Das mag in Ordnung erscheinen, aber was passiert, wenn das ursprüngliche MCP selbst aktualisiert wird?
00:02:34Da dieses Tool seine MCP-Tools zur Laufzeit aufbaut, wird jede Änderung am eigentlichen MCP automatisch reflektiert.
00:02:39Dies wäre nicht möglich gewesen, wenn wir die Tools zur Build-Zeit erstellen würden.
00:02:43In diesem Fall hätten wir das Tool jedes Mal manuell abrufen und aktualisieren müssen.
00:02:48Man könnte denken, dass das Konvertieren desselben Tools bei jedem Aufruf die Vorgänge verlangsamt.
00:02:53Hier kommt der Caching-Mechanismus ins Spiel, den sie in das Tool eingebaut haben.
00:02:58Er speichert alle MCP-Tools in einem Cache mit einer standardmäßigen Time-to-Live von einer Stunde.
00:03:03Alle häufig verwendeten MCP-Tools landen direkt im Cache und bleiben dort für eine Stunde.
00:03:08Von dort kann der Agent die Tools schneller abrufen, ohne die Flexibilität der Laufzeit zu opfern.
00:03:13Dieses Tool basiert direkt auf dem MCP Python SDK, demselben, das jeder MCP-Server nutzt.
00:03:19Bei allen ausgeführten MCP-Tool-Aufrufen werden diese einfach als Bash-Befehle ausgeführt,
00:03:24und die Antwort wird nur dann in das Kontextfenster des Agenten eingefügt, wenn es angefordert wird.
00:03:30Es verarbeitet auch OpenAPI- und REST-APIs über dieselbe CLI-Schnittstelle, was bedeutet,
00:03:35dass jede API ohne MCP-Server auf genau dieselbe Weise genutzt werden kann. Ohne dieses Tool
00:03:39sind Sie eingeschränkt, welche Arten von MCPs Sie verbinden können. Andere Lösungen bieten
00:03:44meist nicht die Flexibilität, alle Arten von MCPs an einem Ort zu verwalten.
00:03:49Um ihre Behauptungen zur Token-Effizienz zu belegen, haben sie eine automatisierte Testsuite mit
00:03:54Tiktoken ausgeführt. Bei den Tests war das Tool viel günstiger und bot eine viel schnellere Ausführung.
00:03:59Sie müssen uns also nicht einfach beim Wort nehmen; dieses Tool hat die Zahlen auf seiner Seite.
00:04:03Sie können es entweder mit pip auf Ihrem System installieren oder es ohne Installation ausführen.
00:04:07Wir haben uns gegen die Installation entschieden, um die Arbeitsumgebung sauber zu halten.
00:04:13Sie haben auch einen „Skill“ bereitgestellt, der Agenten hilft, besser mit diesem Tool zu arbeiten.
00:04:18Er legt den Workflow fest und gibt Beispiele für Bash-Befehle für Aufgaben wie Authentifizierung und Caching,
00:04:22für die Ihr Agent sonst keinen Kontext hätte. Aber bevor wir weitermachen, ein Wort von
00:04:27unserem Sponsor Orchids. Die meisten KI-Builder bewältigen einfache Mockups gut, scheitern aber
00:04:32bei komplexer Logik oder Multi-Datei-Strukturen. Hier kommt Orchids ins Spiel: der erste KI-Agent,
00:04:36der jede App auf jedem Stack direkt aus Ihrer Umgebung heraus erstellen und bereitstellen kann.
00:04:41Nutzen Sie Ihr eigenes Abo, um Modelle zum Selbstkostenpreis über ChatGPT-, Claude- oder Gemini-Konten
00:04:47auszuführen. Es ist für jede App auf jedem Stack gebaut – nicht nur für das Web.
00:04:52Sie können alles bauen, von mobilen Apps und Chrome-Extensions bis hin zu komplexen KI-Agenten.
00:04:57Schauen Sie sich diese Projekte an: ein OpenClaude-Setup für komplexe Hardware-Logik,
00:05:02ein Bloomberg-Terminal für Live-Daten in Echtzeit und native mobile Apps wie dieser Gebäude-Identifikator,
00:05:07der den Kamera-Feed nutzt. Klicken Sie auf den Link im Kommentar und nutzen Sie den Code „March 15“
00:05:12für 15 % Rabatt. Genau wie Sie wollen auch wir erfolgreich sein. Ein Weg dorthin ist es,
00:05:17Marktlücken zu finden. So kamen wir auf die Idee für ein „Grindr für Pferde“. Aber Scherz beiseite:
00:05:22Der Bau großer Produkte erfordert viele MCP-Tools, da sie viele Abhängigkeiten haben
00:05:27und das Kontextfenster schnell füllen. Wir haben den Agenten über MCP to CLI mit Supabase verbunden,
00:05:34da dies unsere Backend-Infrastruktur war. Dank des zuvor installierten Skills müssen Sie
00:05:38nichts manuell konfigurieren. Dieser Skill erledigt alles von selbst und konfiguriert die MCPs für Sie.
00:05:43Aber bevor Sie loslegen, müssen Sie die Access-Token des jeweiligen MCPs abrufen.
00:05:47Andernfalls laufen Sie in Fehler, so wie wir es taten. Nachdem wir unseren Token generiert hatten,
00:05:52gaben wir ihn an Claude weiter. Sobald alles korrekt konfiguriert ist, sollten die Tools
00:05:57einsatzbereit sein. Sie denken vielleicht: Wenn dieses Tool als Bash-Befehl läuft, ist es dann sicher,
00:06:01sensible Daten wie API-Keys darin zu haben? Könnten sie bei einer Prozessliste sichtbar sein?
00:06:06Aber dieses Tool fügt eine Schutzschicht hinzu. Es schreibt sensible Daten nicht in die
00:06:11Kommandozeilenargumente. Stattdessen werden sie über Umgebungsvariablen verarbeitet,
00:06:15oder es verweist auf einen Dateipfad, in dem die Token gespeichert sind,
00:06:21oder nutzt einen Secret Manager. Es ist also sicher. Zusätzlich zur Supabase-Verbindung
00:06:26haben wir das GitHub-MCP für die Versionskontrolle und das Puppeteer-MCP für Browser-Tests verbunden,
00:06:32sowie das Context 7 MCP, um den Agenten mit der aktuellen Dokumentation zu füttern.
00:06:37Nachdem alle MCPs verbunden waren, ließen wir Claude alles verifizieren.
00:06:42Es bestätigte, dass alle vier MCPs verbunden waren – in unserem Fall insgesamt 78 Tools.
00:06:47Wenn Ihnen unser Content gefällt, drücken Sie den Hype-Button; das hilft uns sehr.
00:06:52Nachdem die Verbindung stand, war es Zeit für die schrittweise Implementierung der App.
00:06:57Wir begannen damit, den clientseitigen Code mit dem Supabase-Backend zu verknüpfen.
00:07:02Als Claude den Befehl ausführte, um das Projekt zu erstellen, bemerkten wir, dass der
00:07:07Access-Token nicht direkt im Aufruf stand. Stattdessen wurde auf unsere .env.local-Datei verwiesen.
00:07:12Das Projekt wurde erstellt, alles eingerichtet und die Logik für die Verbindung hinzugefügt.
00:07:17Wir sahen jedoch, dass eine Middleware-Datei für die Session-Logik verwendet wurde, obwohl
00:07:22diese veraltet ist. Die neue Version von Next.js nutzt den Proxy, und wir wussten,
00:07:27dass dies zu Fehlern führen würde. Das zeigt, dass das bloße Verbinden von Tools nicht ausreicht,
00:07:31damit der Agent sie auch korrekt einsetzt. Also erstellten wir eine claude.md-Datei
00:07:36und wiesen Claude an, vor dem Schreiben von Code immer das Context 7 MCP zu nutzen.
00:07:42So stellt er sicher, dass er die aktuelle Dokumentation vor der Implementierung prüft.
00:07:47Nachdem die Tabellen und die Authentifizierung auf Supabase fertig waren, wiesen wir auf die Warnung hin.
00:07:52Daraufhin nutzte Claude endlich das Context 7 MCP, um die Doku abzurufen und das Problem zu lösen.
00:07:57Bei der weiteren Untersuchung des Tools fanden wir jedoch heraus, dass es einen noch besseren Weg gibt
00:08:03als die claude.md-Datei. Skills sind besser, da ihre Beschreibungen direkt in den Kontext
00:08:07des Agenten geladen werden. Er weiß also bereits, welche Tools verfügbar sind und wann er sie nutzen sollte,
00:08:11anstatt dass wir nur Anweisungen in eine Datei werfen und hoffen, dass er sie liest.
00:08:16Wir ließen ihn also Skills für alle verbundenen MCPs erstellen.
00:08:21Claude erstellte für jedes MCP einen Skill mit Details zu den Tools und deren Anwendung.
00:08:26Damit war dieses Problem gelöst, aber die App war noch weit von der Funktionalität entfernt.
00:08:32Das Feedback (der Pferde) war, dass sie ungeduldig wurden, weil sie nicht chatten konnten.
00:08:36Also sollte Claude den Chat funktionsfähig machen. Beim Testen stellten wir fest,
00:08:41dass die Nachrichten nicht luden. Wir ließen ihn das Puppeteer-MCP nutzen, um den Nachrichtenfluss zu testen.
00:08:46Ein Agent, der klicken und scrollen kann, findet Fehler, die bei einer statischen Code-Review
00:08:51unentdeckt bleiben. Zu Testzwecken wurden zwei Benutzer erstellt. Allerdings konnte Claude
00:08:56die Session-Daten nicht über Tool-Aufrufe hinweg beibehalten, da jeder Aufruf eine neue Instanz startete.
00:09:01Die Zeit, die für die Arbeit im Headless-Browser nötig war, ließ uns etwas erkennen:
00:09:06Es wäre besser, das MCP direkt damit umgehen zu lassen. Es war viel schneller
00:09:10als die sieben Minuten, die wir zuvor für eine einfache Aufgabe verschwendet hatten.
00:09:15Wir bevorzugen Claudes eigene Browser-Extension, die Sessions für End-to-End-Tests besser speichert.
00:09:21MCPs laufen als persistente Prozesse, weshalb sie den Status über die gesamte Sitzung halten können.
00:09:25Dieses Tool bietet zudem Kontrolle über das Ausgabeformat wie JSON oder Rohdaten.
00:09:30Es unterstützt auch „Toon“, ein token-effizientes Format für die LLM-Nutzung.
00:09:35Wenn wir mit MCPs wie Context 7 arbeiten, liefern diese oft riesige Ausgaben direkt in den Kontext.
00:09:40Um das zu verhindern, haben wir in der claude.md festgelegt, dass bei Context 7
00:09:46das Toon-Format genutzt werden soll. Es ist effizient, da es Einrückungen und Listen kombiniert
00:09:51und Informationen viel kompakter darstellt als JSON oder YAML. So verschwenden Sie keine Token.
00:09:57Aber der größte Durchbruch kam durch etwas, das bei nativer MCP-Verarbeitung gar nicht möglich war.
00:10:02Erinnern Sie sich, dass Cursor einen Workflow zur Kontextbearbeitung veröffentlicht hat?
00:10:07Sie behandelten MCP-Ergebnisse wie Dateien und ließen den Agenten Bash-Skripte wie „grep“ nutzen,
00:10:12um Daten zu extrahieren. Wir haben das in unserem letzten Video gezeigt.
00:10:16Wir versuchten, dies bei anderen Agenten umzusetzen, aber da MCPs dort nativ gehandhabt werden,
00:10:22war das Ergebnis enttäuschend. Mit dieser CLI ist es nun möglich, da MCPs wie Bash-Tools behandelt werden.
00:10:27Wir fügten in die claude.md ein, dass große MCP-Ausgaben nicht in den Kontext geladen,
00:10:32sondern in einen angegebenen Dateipfad umgeleitet werden sollen. Wir trackten den Fortschritt
00:10:37über eine progress.json. Nach dieser Anweisung sollte Claude ein Feature implementieren.
00:10:43Er nutzte Context 7, leitete die Ausgabe jedoch in eine Datei um und extrahierte die Daten per grep.
00:10:49Die claude.md-Datei mit allen Best Practices für dieses Tool ist in AI Labs Pro verfügbar.
00:10:54Das ist unsere neue Community, in der Sie fertige Vorlagen für Ihre Projekte finden.
00:10:59Wenn Ihnen unsere Arbeit gefällt, ist dies der beste Weg, den Kanal zu unterstützen.
00:11:05Der Link dazu steht in der Beschreibung. Damit sind wir am Ende des Videos angelangt.
00:11:10Wenn Sie uns unterstützen möchten, können Sie das über den „Super Thanks“-Button tun.
00:11:16Wie immer vielen Dank fürs Zuschauen, und wir sehen uns beim nächsten Mal!
00:11:20die Sie direkt in Ihre Projekte für dieses Video und alle vorherigen einbauen können. Wenn Sie
00:11:25einen Mehrwert in unserer Arbeit sehen und den Kanal unterstützen möchten, ist dies der beste Weg. Der Link ist in der
00:11:29Beschreibung. Das bringt uns zum Ende dieses Videos. Wenn Sie den Kanal unterstützen und
00:11:33uns helfen möchten, weiterhin solche Videos zu machen, können Sie dies über den Super Thanks-Button unten tun.
00:11:38Wie immer vielen Dank fürs Zuschauen, und wir sehen uns im nächsten Video.