Cloudflare Just Killed Mac Minis? OpenClaw Runs Serverless – Here's How!

BBetter Stack
Internet TechnologySmall Business/StartupsComputing/Software

Transcript

00:00:00Gute Neuigkeiten für Cloudflare-Fans: Ihr könnt das beliebte Tool OpenClaw jetzt auf deren
00:00:05Infrastruktur nutzen – mit einer Kombination aus Workern, Sandboxes, Browser-Rendering und R2.
00:00:10Es gibt dazu einen sehr detaillierten Artikel, wie alles zusammenhängt, und größtenteils
00:00:15funktioniert es wirklich gut. Aber überwiegen die Vorteile von OpenClaw auf einer Serverless-Infrastruktur
00:00:21die Flexibilität, die man bei einem eigenen VPS hat?
00:00:24Abonniert den Kanal und dann legen wir direkt los.
00:00:28Hier sehen wir OpenClaw bzw. ClawedBot, wie es über Cloudflare läuft.
00:00:31Wenn ich euch die URL zeige, seht ihr, dass es in der Sandbox läuft
00:00:34und ich über meinen Worker darauf zugreife.
00:00:37Ich kann einen Prompt eingeben wie: “Erzähl mir alles über das System, auf dem du läufst.”
00:00:42Und wie ihr seht, liefert es Details zur Infrastruktur.
00:00:45Ich warte kurz, bis es fertig ist, und scrolle dann ein Stück hoch.
00:00:48Hier erkennen wir, dass es auf einer Cloudflare Cloud Chamber läuft.
00:00:52Der Standort ist San Jose, Florida, und wir erhalten alle spezifischen Informationen.
00:00:56Wir haben zudem Zugriff auf Kanäle, um WhatsApp, Telegram oder Discord anzubinden.
00:01:01Auch der Bereich “Skills” ist verfügbar.
00:01:02Ich habe zwar noch keine installiert, könnte es aber jederzeit tun.
00:01:05Man hat vollen Zugriff auf die Konfiguration, Debugging und sämtliche Logs.
00:01:10Kein Server, den man verwalten oder updaten muss.
00:01:12Man zahlt nur für die genutzte Rechenleistung und profitiert vom globalen Edge-Netzwerk von Cloudflare.
00:01:18Ziemlich cool.
00:01:18Wie man das Ganze einrichtet, schauen wir uns später im Video an.
00:01:22Zuvor besprechen wir aber, wie die verschiedenen Technologien
00:01:26ineinandergreifen, damit das Ganze funktioniert.
00:01:28Wenn ihr eure OpenClaw-Instanz zum ersten Mal aufruft,
00:01:31werdet ihr zur Authentifizierung auf Cloudflare Access geleitet.
00:01:34Dort meldet ihr euch mit Benutzername und Passwort oder via OAuth an.
00:01:38Anschließend nutzt Cloudflare JWT-Tokens, um euch gegenüber dem Worker zu authentifizieren.
00:01:44Dieser Worker ist noch nicht direkt das OpenClaw-Gateway.
00:01:47Er besitzt einen HONO-Router mit den Admin-Routen, die ich euch später zeige.
00:01:52Zudem umfasst er das Chrome Developer Tools Protokoll und einen Bereich zur JWT-Validierung.
00:01:59Es gibt noch mehr Details, aber ich fasse mich kurz
00:02:01und zeige nur die drei wichtigsten Komponenten.
00:02:05Das Chrome Developer Tools Protokoll ermöglicht den Zugriff auf einen Browser-Renderer.
00:02:10Das ist ein cooles Feature von Cloudflare: Eine Headless-Chromium-Instanz,
00:02:15die OpenClaw für Web-Browsing, Recherchen oder Ähnliches nutzt.
00:02:19Dann gibt es die Cloudflare Sandbox, die auf Docker basiert.
00:02:23Um das lokal zu bauen, benötigt ihr Docker oder Colima.
00:02:27Das ist im Grunde das OpenClaw-Gateway.
00:02:29Falls ihr mein Video zur Absicherung von MontSpot oder OpenClaw gesehen habt,
00:02:34wisst ihr, dass das Gateway das Gehirn des Systems ist.
00:02:38Es enthält das Dashboard sowie den WebSocket-Zugriff für Nodes und Clients.
00:02:42Ebenso die Agent-Runtime, den Session-Manager und Channel-Manager.
00:02:46Das läuft auf Port 18789 für WebSockets und über HTTP für Kanäle.
00:02:53Das Cloudflare-Äquivalent dazu befindet sich in einer Sandbox.
00:02:58So kann Code isoliert ausgeführt werden, was es besonders sicher macht.
00:03:01Hier wird kein direkter Zugriff auf KI-Anbieter via API-Keys genutzt.
00:03:08Man kann zwar OpenAI oder Anthropic mit eigenen Keys verwenden,
00:03:13aber auch das AI Gateway von Cloudflare nutzen, das Zugriff auf all diese Anbieter bietet.
00:03:20Da alles im Cloudflare-System läuft,
00:03:22kann man natürlich kein eigenes lokales LLM einbinden.
00:03:25Das sollte man bedenken.
00:03:26Aber wie gesagt: Kanäle wie Telegram, WhatsApp oder Discord lassen sich
00:03:30mit der Sandbox in Cloudflare verbinden, die wiederum
00:03:33mit dem Worker kommuniziert – hier müsste eigentlich ein Pfeil sein.
00:03:36Die Session-Verwaltung, also die Speicherung von Daten und Konfigurationen,
00:03:40erfolgt in einem R2-Bucket.
00:03:43Wichtig: Wenn ihr die Sandbox neu startet oder den Container neu baut,
00:03:48wird alles gelöscht, was nur in der Sandbox gespeichert war.
00:03:51Daher müsst ihr Daten im R2-Bucket sichern, damit sie persistent bleiben.
00:03:56Das war ein kurzer Überblick über die Funktionsweise.
00:03:59Details findet ihr im besagten Artikel von Cloudflare.
00:04:04Schauen wir uns nun die Einrichtung an.
00:04:06Zuerst benötigt ihr einen kostenpflichtigen Worker-Plan
00:04:10für 5 $ im Monat plus Zusatznutzung.
00:04:13Ein Hetzner-VPS ist vermutlich günstiger,
00:04:17aber man bekommt hier viel Leistung für den Preis.
00:04:21Außerdem braucht ihr Docker lokal installiert.
00:04:24Ich nutze Colima, aber Docker Desktop geht auch.
00:04:27Und schließlich benötigt ihr einen API-Key für Anthropic oder OpenAI.
00:04:31Sobald ihr das habt, geht ihr zum GitHub-Repo
00:04:34und klont es auf euer System.
00:04:38Man könnte auch den Button “Deploy to Cloudflare” nutzen,
00:04:42um das Klonen zu umgehen.
00:04:44Bei mir hat das allerdings nicht gut funktioniert.
00:04:47Ich empfehle daher, das Repo manuell zu klonen.
00:04:48Dort gibt es hilfreiche Schritte,
00:04:52die genau erklären, was zu tun ist.
00:04:54Geht diese Schritte durch und notiert euch unbedingt
00:04:58euren Maltbot-Gateway-Token. Speichert ihn in einem Notebook
00:05:02oder einer Textdatei ab – verliert ihn bloß nicht.
00:05:05Nachdem ihr euren Malt-Worker bereitgestellt habt, sind noch ein paar Dinge zu tun,
00:05:09die zwar in der Readme stehen, aber etwas schwer zu finden sind,
00:05:13da sie verstreut liegen. Ich zeige euch das mal.
00:05:16In eurem Worker solltet ihr im Bereich “Bindings”
00:05:20die Sandbox, den R2-Bucket und den Browser-Renderer sehen.
00:05:25Falls nicht, müsst ihr den Docker-Container eventuell neu bauen und deployen.
00:05:29Wenn alles da ist, klickt auf “Domains and Rules”
00:05:32und stellt sicher, dass Cloudflare Access aktiviert ist.
00:05:35Bei mir ist es schon an, sonst erscheint hier ein Popup.
00:05:40Wir müssen nun zwei geheime Variablen (Secrets) hinterlegen.
00:05:44Einmal “cfaccess_aud” und einmal “cfaccess_team_domain”.
00:05:50Den ersten Wert findet ihr in der Cloudflare-Access-Verwaltung
00:05:52hier unten; fügt ihn per Wrangler als Secret hinzu.
00:05:56Den zweiten Wert findet ihr in den Einstellungen hier.
00:06:01Das ist eure Cloudflare-Access-Domain.
00:06:03Danach verlangt die Dokumentation einen erneuten Deploy.
00:06:07Falls ihr bereits eine Sandbox-Umgebung habt,
00:06:09könnte ein erneutes Bauen zu Problemen führen.
00:06:12Nutzt daher diesen Befehl, um eure Container aufzulisten.
00:06:16Sobald ihr die ID des existierenden Containers habt,
00:06:19löscht ihn einfach mit dem “delete”-Befehl und der ID.
00:06:23Ich lösche meinen jetzt nicht,
00:06:26aber ihr solltet alte Container vor dem Neu-Deploy entfernen.
00:06:31Danach solltet ihr Zugriff auf die MaltSpot-Adminseite haben,
00:06:35die etwa so aussieht.
00:06:37Die Warnung könnt ihr ignorieren, außer ihr wollt Daten dauerhaft speichern.
00:06:41Dafür müssten die fehlenden Secrets ergänzt werden.
00:06:44Beim ersten Start sollte hier ein Gerät zum Koppeln erscheinen,
00:06:46also eine ausstehende Pairing-Anfrage.
00:06:50Klickt einfach auf den Button zum Koppeln.
00:06:54Da ich das schon erledigt habe, wird es hier angezeigt.
00:06:56Das ist das gekoppelte Gerät.
00:06:58Dies passiert, wenn wir einen Browser mit unserem Cloudbot-Gateway verbinden.
00:07:02Nun rufen wir die Worker-URL auf und hängen den Token als Query-Parameter an.
00:07:08Das ist der Token, den ihr vorhin speichern solltet.
00:07:12Das müsst ihr nur beim ersten Zugriff über den Browser machen.
00:07:17Danach sollte der Status auf “OK” stehen
00:07:20und ihr könnt mit euren Agenten kommunizieren.
00:07:23Das bietet euch die volle Flexibilität von OpenClaw, fast wie auf einem VPS.
00:07:29Wie man hier sieht, hat das Cloudflare-Team es sogar mit Slack verbunden.
00:07:35Hier sind Screenshots, wie jemand in Slack mit Maltbot chattet
00:07:40und Antworten erhält.
00:07:41Wer sich nicht mit dem Aufsetzen eines Linux-Servers oder Mac Minis
00:07:46herumschlagen will, für den ist der Cloudflare Malt-Worker eine gute Wahl,
00:07:52da das Team auf Sicherheit achtet und die schwere Arbeit bereits erledigt hat.
00:07:57Aber wenn euch Recherche und Terminal-Befehle per SSH nichts ausmachen,
00:08:03halte ich einen eigenen VPS oder Mac Mini langfristig für die bessere Wahl,
00:08:10sofern man weiß, was man tut. Es ist einfach flexibler.
00:08:13Außerdem bekommt man so eine OpenClaw-Version, die wirklich privat ist.
00:08:18Mit Ollama oder lokalen Modellen lässt sich OpenClaw sogar
00:08:22komplett ohne Internetverbindung nutzen.
00:08:26Mir ist auch aufgefallen, dass mein Worker das Logo von Clawedbot statt OpenClaw zeigt,
00:08:32die GitHub-Version ist also wohl etwas veraltet.
00:08:36Aber das lässt sich sicher schnell beheben.
00:08:38Meiner Meinung nach ist der Weg über den VPS besser, um die volle Kontrolle,
00:08:44maximale Flexibilität und Privatsphäre zu haben.
00:08:49Wenn ihr wissen wollt, wie man Maltbot oder OpenClaw sicher auf einem VPS aufsetzt,
00:08:55schaut euch mein voriges Video an, in dem ich das mit Tailscale erkläre.
00:08:59Aber egal welches Setup: Wenn ihr damit Software baut,
00:09:05wollt ihr natürlich, dass diese fehlerfrei läuft.
00:09:10Hier kommt BetterStack ins Spiel. Damit könnt ihr Backend-Logs einsehen
00:09:15und dank Anomalie-Erkennung Probleme frühzeitig bemerken.
00:09:20Es gibt auch KI-gestütztes Error-Tracking für jedes Frontend-Framework,
00:09:24das euch direkt Lösungsvorschläge für euren Agenten liefert.
00:09:28Schaut euch BetterStack also unbedingt mal an.

Key Takeaway

Cloudflare ermöglicht den Betrieb von OpenClaw als hochsichere, serverlose Lösung, die zwar die Hardware-Verwaltung eliminiert, aber im Vergleich zu einem VPS Abstriche bei der Flexibilität und lokalen LLM-Anbindung macht.

Highlights

OpenClaw (ehemals Maltbot) lässt sich nun vollständig serverless auf der Cloudflare-Infrastruktur betreiben.

Die Architektur nutzt eine Kombination aus Cloudflare Workers

Timeline

Einführung in OpenClaw auf Cloudflare

Der Sprecher stellt die Integration von OpenClaw in das Cloudflare-Ökosystem vor und zeigt eine laufende Instanz in einer Sandbox. Er erklärt, dass durch Tools wie Workers und R2 keine eigene Serververwaltung mehr nötig ist, was den Betrieb deutlich vereinfacht. In der Live-Demo wird demonstriert, wie das System Details über seine eigene Infrastruktur am Standort San Jose ausgibt. Es wird hervorgehoben, dass Nutzer nur für die tatsächlich genutzte Rechenleistung im globalen Edge-Netzwerk zahlen. Diese Lösung zielt darauf ab, die Komplexität von Mac Minis oder klassischen Servern zu ersetzen.

Die technische Architektur im Detail

Dieser Abschnitt erläutert das Zusammenspiel der verschiedenen Cloudflare-Komponenten wie Workers, HONO-Router und JWT-Authentifizierung. Eine Besonderheit ist die Nutzung des Chrome Developer Tools Protokolls für eine Headless-Chromium-Instanz, die dem Agenten Browsing-Fähigkeiten verleiht. Die eigentliche Logik läuft in einer Docker-basierten Cloudflare Sandbox, die als isoliertes Gateway fungiert. Der Sprecher weist darauf hin, dass die Speicherung von Konfigurationen in R2-Buckets erfolgen muss, da Daten in der Sandbox bei einem Neustart verloren gehen. Zudem wird erklärt, dass das Cloudflare AI Gateway den Zugriff auf verschiedene KI-Anbieter zentralisiert.

Schritt-für-Schritt Einrichtung

Für die Einrichtung sind ein kostenpflichtiger Cloudflare-Worker-Plan, eine lokale Docker-Installation und API-Keys von Anbietern wie OpenAI erforderlich. Der Sprecher empfiehlt das manuelle Klonen des GitHub-Repositorys, da der automatisierte Deploy-Button oft zu Fehlern führt. Ein kritischer Schritt ist das Sichern des Maltbot-Gateway-Tokens sowie die Konfiguration der Cloudflare-Access-Variablen. In der Cloudflare-Konsole müssen spezifische Bindings für die Sandbox und den Browser-Renderer kontrolliert werden. Alte Container sollten vor einem erneuten Deployment gelöscht werden, um Konflikte innerhalb der Umgebung zu vermeiden.

Konfiguration und Kopplung der Agenten

Nach dem erfolgreichen Deployment erfolgt der Zugriff über die MaltSpot-Adminseite und die Kopplung neuer Geräte. Der Nutzer muss beim ersten Aufruf den zuvor gespeicherten Token als Query-Parameter an die URL anhängen, um den Zugriff zu autorisieren. Sobald der Status auf "OK" steht, ist die Kommunikation mit den KI-Agenten möglich. Der Sprecher zeigt am Beispiel einer Slack-Integration, wie vielseitig die Plattform für die Team-Kommunikation eingesetzt werden kann. Diese Methode eignet sich besonders für Anwender, die keine Linux-Server selbst warten möchten und eine schlüsselfertige Lösung suchen.

Vergleich: Cloudflare vs. VPS und Fazit

Im abschließenden Vergleich wägt der Sprecher die Vor- und Nachteile zwischen der Cloudflare-Lösung und einem klassischen VPS ab. Während Cloudflare durch Sicherheit und geringen Wartungsaufwand besticht, bietet ein VPS oder Mac Mini mehr Privatsphäre und die Einbindung lokaler Modelle via Ollama. Für maximale Kontrolle und Flexibilität wird der Weg über einen eigenen Server mit Tailscale-Absicherung empfohlen. Der Sprecher bemerkt zudem, dass die Cloudflare-Version optisch teilweise noch als Clawedbot firmiert und eventuell nicht ganz aktuell ist. Zum Ende wird BetterStack als Tool für das Monitoring und Error-Tracking von Backend-Logs und Frontend-Frameworks empfohlen.

Community Posts

View all posts