Transcript

00:00:00OpenClaw wird Teil von OpenAI und Peter Steinberger, der Schöpfer von OpenClaw,
00:00:05wechselt zu OpenAI. Ich finde das aus der Sicht eines Entwicklers aus mehreren Gründen
00:00:12interessant. Es verrät uns etwas darüber, wohin OpenAI steuert, und hat einige interessante
00:00:17Auswirkungen, würde ich sagen. In einem Blogpost auf seiner Website erwähnt Peter,
00:00:25dass seine nächste Mission darin besteht, einen Agenten zu bauen, den sogar seine Mutter benutzen kann.
00:00:32Denn für OpenClaw benötigt man momentan natürlich noch ein gewisses technisches Wissen,
00:00:38um es einzurichten und zu nutzen. Ich würde behaupten, das ist auch gut so, denn wie ich
00:00:45bereits vor einigen Wochen in einem Video erklärt habe, kann OpenClaw gefährlich sein
00:00:53oder schwerwiegende Sicherheitslücken aufweisen, die viele Menschen – selbst mit technischem Wissen –
00:01:00entweder nicht verstehen oder einfach ignorieren. Oder sie machen gar nicht so viel Nützliches
00:01:06mit OpenClaw, wie sie behaupten. Was im Internet im Jahr 2026 natürlich absolut möglich ist.
00:01:12Wie auch immer, ich habe meine Meinung zu OpenClaw in jenem Video geteilt, werde aber hier immer mal wieder
00:01:19darauf zurückkommen. Diese Mission, einen KI-Agenten zu haben, der für jeden nutzbar ist –
00:01:27vorausgesetzt, seine Mutter ist keine Profi-Entwicklerin – ist offensichtlich das Ziel aller KI-Firmen.
00:01:34OpenAI, Thoughtbreak... sie alle verfolgen das. Uns Entwickler als Kunden zu haben, mit Tools wie
00:01:41Cloud Code oder Codex, ist zwar schön und gut, aber der restliche Markt ist weitaus größer.
00:01:47Das Endziel dieser Unternehmen ist es natürlich, einen Punkt zu erreichen, an dem KI-Agenten alles erledigen
00:01:56und wir Menschen im Grunde ersetzt werden können. Erst digital und dann durch Robotik überall.
00:02:04Ich werde jetzt nicht darauf eingehen, ob das bald passiert. Meine Meinung dazu habe ich schon oft geteilt.
00:02:11Ich sehe nicht einmal, dass Entwickler bald ersetzt werden, geschweige denn Menschen im Allgemeinen.
00:02:18Ich glaube auch nicht, dass das ein erstrebenswertes Ziel ist. Aber das ist eine andere Geschichte.
00:02:27Interessant ist hier jedoch, dass Sam Altman mitteilte, dass sie durch Peter Steinbergers Wechsel
00:02:35erwarten, dass OpenClaw schnell zum Kern ihrer Produktpalette wird. Also ein Agent wie OpenClaw.
00:02:42Er erwähnt auch, dass OpenClaw als Open-Source-Projekt in einer Stiftung weiterleben wird,
00:02:48die OpenAI weiterhin unterstützt. Die Zukunft wird extrem von Multi-Agenten geprägt sein,
00:02:54daher sei es ihnen wichtig, Open Source in diesem Bereich zu unterstützen. Was ich daraus lese,
00:03:01ist ziemlich eindeutig: OpenAI wird ein eigenes Agenten-Angebot auf Basis von OpenClaw entwickeln
00:03:09oder zumindest Erkenntnisse und Teile des Codes nutzen. OpenClaw bleibt also Open Source
00:03:16und sie werden es unterstützen – vielleicht so, wie sie selbst versprochen haben, "offen" zu bleiben.
00:03:22Aber sie werden definitiv auch einen Agenten basierend auf diesen Erfahrungen bauen, der
00:03:29sehr wahrscheinlich nicht offen, sondern ein kostenpflichtiges Angebot sein wird, was geschäftlich Sinn ergibt.
00:03:34In meinem Video hatte ich Sicherheitsbedenken bezüglich OpenClaw geäußert. Dabei geht es mir
00:03:44weniger um Schwachstellen im Code, die man mit der Zeit beheben kann, besonders wenn man eine
00:03:50Firma wie OpenAI im Rücken hat. Das ist nicht meine größte Sorge. Mein Hauptproblem bei OpenClaw
00:03:58waren und sind Prompt-Injections. Das ist meine größte Sorge bei all diesen Agenten.
00:04:08Und das ist ein fundamentales Problem von Large Language Models. Coding-Agenten sind tolle Assistenten.
00:04:16Sie machen vieles falsch und müssen gesteuert werden. Wann immer Leute mir erzählen, dass Agenten
00:04:25bereits komplette Software schreiben können, bin ich gespannt, diese Software zu sehen.
00:04:31Das entspricht nämlich absolut nicht meiner Erfahrung. In den Händen eines fähigen Entwicklers
00:04:37können diese Agenten jedoch tatsächlich einen erheblichen Produktivitätsschub bewirken.
00:04:44Das ist meine Erfahrung. Aber wichtig: Sie sind weit davon entfernt, Entwickler zu ersetzen.
00:04:50Natürlich ist Programmieren gewissermaßen die Paradedisziplin für diese KI-Modelle, da es
00:04:58reiner Text-Input und -Output ist. Zudem liegt ein Großteil des relevanten Kontexts direkt
00:05:04in der Codebasis vor, sodass das Modell ihn sehen und nutzen kann. Das ist ein riesiger Unterschied
00:05:10zu vielen anderen Aufgaben in der Welt, auch in der digitalen Welt. Aber egal, ob wir über
00:05:16Coding-Agenten oder Agenten wie OpenClaw sprechen: Prompt-Injections sind ein Riesenproblem.
00:05:22Eine Prompt-Injection kann subtil oder unerwartet sein. Man könnte zwar sagen, dass man die Prompts
00:05:30bei OpenClaw selbst schreibt, aber sobald der Agent eine Website besucht oder, wie im Falle
00:05:37von OpenClaw, eine E-Mail liest, wird dieser gesamte Text in einen neuen Prompt verarbeitet.
00:05:44Und genau das ist der Angriffsvektor für Prompt-Injections. Bei Coding-Agenten ist der Vorteil,
00:05:51dass man sie erstens in einer Sandbox ausführen sollte und sie zweitens meist keinen Zugriff
00:05:58auf das E-Mail-Konto oder das gesamte digitale Leben haben. Zudem sollte man als Entwickler
00:06:05darauf achten, was der Agent tut. Normalerweise muss man Berechtigungen explizit erteilen
00:06:13oder verweigern. Er fragt ständig nach, ob er dies oder jenes tun darf. Man kann ihn natürlich
00:06:18in einem gefährlichen Modus laufen lassen. In einer Sandbox ist man vielleicht sicher davor,
00:06:24dass er die Festplatte löscht, aber man begibt sich trotzdem auf gefährliches Terrain,
00:06:32wenn man überhaupt nicht kontrolliert, was der Coding-Agent eigentlich macht.
00:06:39Dennoch besteht der Hauptunterschied zu OpenClaw darin, dass der Coding-Agent keinen Zugriff
00:06:45auf das gesamte digitale Leben hat. Die Idee bei OpenClaw ist ja gerade ein Agent,
00:06:49den selbst Peters Mutter nutzen kann. Ein Agent, der einfach alles für einen erledigen kann.
00:06:57Man schreibt ihm nur: "Hey, bitte check meine Mails und entwirf ein paar Antworten."
00:07:03Dafür benötigt er natürlich Zugriff auf das E-Mail-Konto. Und wenn er diesen Zugriff hat,
00:07:09könnte er E-Mails versenden. Ich rede nicht nur von beleidigenden E-Mails, was schlimm genug wäre,
00:07:14sondern er könnte Daten exfiltrieren. Er kann das System durchsuchen, Daten sammeln
00:07:19und diese dann aufgrund einer Prompt-Injection per E-Mail an einen bösartigen Akteur senden.
00:07:24Das ist das gewaltige Sicherheitsproblem, das ich sehe und das ich in meinem Video geteilt habe.
00:07:30Und dieser Punkt ist wichtig: Das Problem bleibt bestehen, selbst wenn OpenAI hinter dem Projekt steht.
00:07:35Kann man das lösen? Meines Wissens nach funktioniert das bei der Arbeitsweise von LLMs
00:07:42nicht allgemein, sondern nur mit einem Konzept, das wir schon lange kennen: Zero Trust.
00:07:48Die Idee ist, den Agenten in einer Umgebung auszuführen, in der man keiner seiner Aktionen traut,
00:07:54seine Möglichkeiten einschränkt und Berechtigungen für bestimmte Dinge explizit gewähren muss.
00:08:02Beim Versenden von E-Mails müsste man beispielsweise einstellen, dass er für jede einzelne Mail
00:08:10nachfragen muss, damit ein Mensch sie validieren und dann genehmigen oder ablehnen kann.
00:08:14Eine solche Umgebung, die extrem restriktiv ist und ständig nach Erlaubnis fragt,
00:08:20passt natürlich nicht zur Philosophie eines großartigen Agenten, der alles für einen erledigt,
00:08:25während man friedlich schläft. Deshalb sehe ich diese Agenten-Zukunft momentan noch nicht,
00:08:33zumindest nicht in naher Zukunft. Aber wir werden sehen, was OpenAI da erreichen kann.
00:08:39Vielleicht sind ihnen Sicherheitsprobleme auch nicht so wichtig, aber eigentlich müssen sie es sein,
00:08:45da zahlende Kunden kaum erfreut sein dürften, wenn ihre Daten gestohlen werden.
00:08:55Lange Rede, kurzer Sinn: Ich bin immer noch extrem skeptisch, obwohl ich den Reiz von
00:09:03Agenten wie OpenClaw verstehe. Einen hilfreichen 24/7-Assistenten für alles Digitale zu haben,
00:09:10klingt nett, und ich sehe definitiv, dass dies eine Richtung ist, in die wir uns bewegen könnten.
00:09:20Auch wenn ich selbst noch keine Anwendungsfälle habe, für die es super nützlich wäre –
00:09:27da ich keine weitreichenden Berechtigungen erteilen will – verstehe ich absolut,
00:09:35warum OpenAI so brennend an diesem Projekt interessiert ist. Es könnte aber auch bedeuten,
00:09:42dass OpenClaw mit der Zeit verschwindet. Der Hype könnte relativ bald abflauen, auch wegen des
00:09:48Images von OpenAI. Für mich klingt das nach einem typischen Konzern-Statement: "Ja, wir werden
00:09:55das unterstützen", und irgendwann stellen sie den Support ein, bauen ihr eigenes Produkt
00:10:03und dann werden wir sehen, wie gut oder schlecht dieses Produkt am Ende wirklich ist.
00:10:09Jedenfalls bleibt es spannend zu beobachten, ob OpenAI die Sicherheitshürden wirklich meistern kann.
00:10:14Oder ob am Ende die Bequemlichkeit über die Sicherheit siegt, was leider oft der Fall ist.
00:10:20Wir werden es sehen. Vielen Dank fürs Zuschauen und bis zum nächsten Mal!

Key Takeaway

Der Wechsel des OpenClaw-Schöpfers zu OpenAI signalisiert den Vorstoß in den Massenmarkt für KI-Agenten, wirft jedoch kritische Fragen zur Sicherheit und zum Umgang mit Prompt-Injections auf.

Highlights

Peter Steinberger, der Entwickler von OpenClaw, wechselt zu OpenAI, was die strategische Ausrichtung der Firma auf KI-Agenten unterstreicht.

Das Ziel ist die Entwicklung eines Agenten, der so benutzerfreundlich ist, dass er auch von technisch nicht versierten Personen bedient werden kann.

Prompt-Injections stellen ein massives, fundamentales Sicherheitsproblem für LLM-basierte Agenten dar, da externe Daten den Agenten manipulieren können.

Im Gegensatz zu Coding-Agenten, die oft in einer Sandbox agieren, benötigt ein Alltags-Assistent wie OpenClaw weitreichende Zugriffsrechte auf private Daten wie E-Mails.

Der Sprecher ist skeptisch, ob die Vision eines autonomen Agenten ohne ständige menschliche Validierung (Zero Trust) kurzfristig sicher umsetzbar ist.

OpenClaw soll als Open-Source-Projekt in einer Stiftung weiterleben, doch OpenAI wird wahrscheinlich ein eigenes, kommerzielles Produkt darauf aufbauen.

Timeline

Übernahme von OpenClaw und personelle Veränderungen

Der Sprecher berichtet über den Wechsel von Peter Steinberger zu OpenAI und die damit einhergehende Integration von OpenClaw in das Unternehmen. Er analysiert, dass OpenAI damit das Ziel verfolgt, KI-Agenten für eine breite Masse zugänglich zu machen, anstatt nur technisch versierte Nutzer anzusprechen. Bisher war für OpenClaw erhebliches technisches Wissen zur Einrichtung erforderlich, was der Sprecher aufgrund inhärenter Sicherheitsrisiken sogar als Vorteil ansah. Das Jahr 2026 wird als Kontext für die rasanten Entwicklungen und die Verbreitung solcher Tools im Internet genannt. Es wird deutlich, dass dieser Schritt eine klare Botschaft über die zukünftige Produktstrategie von OpenAI sendet.

Die Vision der totalen Automatisierung

In diesem Abschnitt wird die Mission beleuchtet, Agenten zu bauen, die für jeden - wie metaphorisch für 'Peters Mutter' - nutzbar sind. Laut dem Sprecher ist dies das Endziel aller großen KI-Firmen, um über den reinen Entwicklermarkt hinauszuwachsen. Es wird die Theorie aufgestellt, dass KI-Agenten langfristig menschliche Arbeit erst digital und später durch Robotik auch physisch ersetzen sollen. Der Sprecher äußert sich jedoch skeptisch gegenüber der Behauptung, dass Entwickler oder Menschen im Allgemeinen in naher Zukunft vollständig ersetzt werden könnten. Sam Altman wird zitiert, dass OpenClaw schnell zu einem Kernbestandteil der Produktpalette von OpenAI werden soll.

Open Source Versprechen vs. Kommerzielle Realität

Hier wird diskutiert, dass OpenClaw offiziell als Open-Source-Projekt innerhalb einer Stiftung weitergeführt werden soll, die von OpenAI unterstützt wird. Der Sprecher interpretiert dies jedoch als strategischen Schachzug: OpenAI wird die Erkenntnisse und den Code nutzen, um ein eigenes, wahrscheinlich kostenpflichtiges Produkt zu entwickeln. Es wird ein Vergleich zur bisherigen Strategie von OpenAI gezogen, die sich oft 'offen' nennt, aber proprietäre Wege geht. Für Unternehmen ergibt es geschäftlich Sinn, auf Basis von Open-Source-Erfahrungen geschlossene Premium-Angebote zu erstellen. Dieser Abschnitt verdeutlicht die Diskrepanz zwischen der Unterstützung der Community und den kommerziellen Interessen eines Großkonzerns.

Das fundamentale Problem der Prompt-Injection

Der Sprecher vertieft seine Sicherheitsbedenken und identifiziert Prompt-Injections als das größte Risiko für Large Language Models. Während Coding-Agenten oft nützliche Assistenten sind, machen sie immer noch viele Fehler und müssen strikt kontrolliert werden. Das Problem bei Agenten wie OpenClaw ist, dass sie externe Inhalte wie E-Mails oder Webseiten lesen, die bösartige Befehle enthalten können. Wenn diese Inhalte in den Prompt des LLMs einfließen, kann der Agent unkontrolliert Aktionen ausführen. Der Sprecher betont, dass dies kein einfacher Bug im Code ist, sondern ein systemisches Problem der aktuellen KI-Architektur.

Gefahren im digitalen Alltag und Sandbox-Vergleiche

In diesem Teil wird der Unterschied zwischen spezialisierten Coding-Agenten und Alltags-Agenten herausgearbeitet. Coding-Agenten agieren meist in einer isolierten Sandbox und haben begrenzten Zugriff auf das restliche digitale Leben des Nutzers. Ein Agent, der jedoch E-Mails verwalten soll, benötigt vollen Zugriff und wird dadurch extrem verwundbar für Datenexfiltration. Der Sprecher warnt davor, dass ein durch Prompt-Injection manipulierter Agent sensible Daten sammeln und an Dritte versenden könnte. Selbst die Unterstützung durch OpenAI ändert nichts an dieser grundlegenden Gefahr, da der Angriffsvektor über den Inhalt der verarbeiteten Daten erfolgt.

Zero Trust als einzige Lösung und Fazit

Der Sprecher schlägt das Konzept von 'Zero Trust' als notwendige Sicherheitsmaßnahme vor, bei der jede Aktion des Agenten explizit vom Menschen genehmigt werden muss. Dies widerspricht jedoch der Vision eines völlig autonomen Assistenten, der Aufgaben erledigt, während der Nutzer schläft. Es wird die Befürchtung geäußert, dass Bequemlichkeit am Ende über die Sicherheit siegen könnte, was für zahlende Kunden riskant wäre. Abschließend bleibt der Sprecher skeptisch bezüglich der kurzfristigen Umsetzung und vermutet, dass das Open-Source-Projekt OpenClaw zugunsten von OpenAI-eigenen Produkten an Bedeutung verlieren könnte. Das Video endet mit dem Fazit, dass die Entwicklung zwar spannend bleibt, aber die kritischen Sicherheitshürden noch lange nicht überwunden sind.

Community Posts

View all posts