00:00:00OpenClaw wird Teil von OpenAI und Peter Steinberger, der Schöpfer von OpenClaw,
00:00:05wechselt zu OpenAI. Ich finde das aus der Sicht eines Entwicklers aus mehreren Gründen
00:00:12interessant. Es verrät uns etwas darüber, wohin OpenAI steuert, und hat einige interessante
00:00:17Auswirkungen, würde ich sagen. In einem Blogpost auf seiner Website erwähnt Peter,
00:00:25dass seine nächste Mission darin besteht, einen Agenten zu bauen, den sogar seine Mutter benutzen kann.
00:00:32Denn für OpenClaw benötigt man momentan natürlich noch ein gewisses technisches Wissen,
00:00:38um es einzurichten und zu nutzen. Ich würde behaupten, das ist auch gut so, denn wie ich
00:00:45bereits vor einigen Wochen in einem Video erklärt habe, kann OpenClaw gefährlich sein
00:00:53oder schwerwiegende Sicherheitslücken aufweisen, die viele Menschen – selbst mit technischem Wissen –
00:01:00entweder nicht verstehen oder einfach ignorieren. Oder sie machen gar nicht so viel Nützliches
00:01:06mit OpenClaw, wie sie behaupten. Was im Internet im Jahr 2026 natürlich absolut möglich ist.
00:01:12Wie auch immer, ich habe meine Meinung zu OpenClaw in jenem Video geteilt, werde aber hier immer mal wieder
00:01:19darauf zurückkommen. Diese Mission, einen KI-Agenten zu haben, der für jeden nutzbar ist –
00:01:27vorausgesetzt, seine Mutter ist keine Profi-Entwicklerin – ist offensichtlich das Ziel aller KI-Firmen.
00:01:34OpenAI, Thoughtbreak... sie alle verfolgen das. Uns Entwickler als Kunden zu haben, mit Tools wie
00:01:41Cloud Code oder Codex, ist zwar schön und gut, aber der restliche Markt ist weitaus größer.
00:01:47Das Endziel dieser Unternehmen ist es natürlich, einen Punkt zu erreichen, an dem KI-Agenten alles erledigen
00:01:56und wir Menschen im Grunde ersetzt werden können. Erst digital und dann durch Robotik überall.
00:02:04Ich werde jetzt nicht darauf eingehen, ob das bald passiert. Meine Meinung dazu habe ich schon oft geteilt.
00:02:11Ich sehe nicht einmal, dass Entwickler bald ersetzt werden, geschweige denn Menschen im Allgemeinen.
00:02:18Ich glaube auch nicht, dass das ein erstrebenswertes Ziel ist. Aber das ist eine andere Geschichte.
00:02:27Interessant ist hier jedoch, dass Sam Altman mitteilte, dass sie durch Peter Steinbergers Wechsel
00:02:35erwarten, dass OpenClaw schnell zum Kern ihrer Produktpalette wird. Also ein Agent wie OpenClaw.
00:02:42Er erwähnt auch, dass OpenClaw als Open-Source-Projekt in einer Stiftung weiterleben wird,
00:02:48die OpenAI weiterhin unterstützt. Die Zukunft wird extrem von Multi-Agenten geprägt sein,
00:02:54daher sei es ihnen wichtig, Open Source in diesem Bereich zu unterstützen. Was ich daraus lese,
00:03:01ist ziemlich eindeutig: OpenAI wird ein eigenes Agenten-Angebot auf Basis von OpenClaw entwickeln
00:03:09oder zumindest Erkenntnisse und Teile des Codes nutzen. OpenClaw bleibt also Open Source
00:03:16und sie werden es unterstützen – vielleicht so, wie sie selbst versprochen haben, "offen" zu bleiben.
00:03:22Aber sie werden definitiv auch einen Agenten basierend auf diesen Erfahrungen bauen, der
00:03:29sehr wahrscheinlich nicht offen, sondern ein kostenpflichtiges Angebot sein wird, was geschäftlich Sinn ergibt.
00:03:34In meinem Video hatte ich Sicherheitsbedenken bezüglich OpenClaw geäußert. Dabei geht es mir
00:03:44weniger um Schwachstellen im Code, die man mit der Zeit beheben kann, besonders wenn man eine
00:03:50Firma wie OpenAI im Rücken hat. Das ist nicht meine größte Sorge. Mein Hauptproblem bei OpenClaw
00:03:58waren und sind Prompt-Injections. Das ist meine größte Sorge bei all diesen Agenten.
00:04:08Und das ist ein fundamentales Problem von Large Language Models. Coding-Agenten sind tolle Assistenten.
00:04:16Sie machen vieles falsch und müssen gesteuert werden. Wann immer Leute mir erzählen, dass Agenten
00:04:25bereits komplette Software schreiben können, bin ich gespannt, diese Software zu sehen.
00:04:31Das entspricht nämlich absolut nicht meiner Erfahrung. In den Händen eines fähigen Entwicklers
00:04:37können diese Agenten jedoch tatsächlich einen erheblichen Produktivitätsschub bewirken.
00:04:44Das ist meine Erfahrung. Aber wichtig: Sie sind weit davon entfernt, Entwickler zu ersetzen.
00:04:50Natürlich ist Programmieren gewissermaßen die Paradedisziplin für diese KI-Modelle, da es
00:04:58reiner Text-Input und -Output ist. Zudem liegt ein Großteil des relevanten Kontexts direkt
00:05:04in der Codebasis vor, sodass das Modell ihn sehen und nutzen kann. Das ist ein riesiger Unterschied
00:05:10zu vielen anderen Aufgaben in der Welt, auch in der digitalen Welt. Aber egal, ob wir über
00:05:16Coding-Agenten oder Agenten wie OpenClaw sprechen: Prompt-Injections sind ein Riesenproblem.
00:05:22Eine Prompt-Injection kann subtil oder unerwartet sein. Man könnte zwar sagen, dass man die Prompts
00:05:30bei OpenClaw selbst schreibt, aber sobald der Agent eine Website besucht oder, wie im Falle
00:05:37von OpenClaw, eine E-Mail liest, wird dieser gesamte Text in einen neuen Prompt verarbeitet.
00:05:44Und genau das ist der Angriffsvektor für Prompt-Injections. Bei Coding-Agenten ist der Vorteil,
00:05:51dass man sie erstens in einer Sandbox ausführen sollte und sie zweitens meist keinen Zugriff
00:05:58auf das E-Mail-Konto oder das gesamte digitale Leben haben. Zudem sollte man als Entwickler
00:06:05darauf achten, was der Agent tut. Normalerweise muss man Berechtigungen explizit erteilen
00:06:13oder verweigern. Er fragt ständig nach, ob er dies oder jenes tun darf. Man kann ihn natürlich
00:06:18in einem gefährlichen Modus laufen lassen. In einer Sandbox ist man vielleicht sicher davor,
00:06:24dass er die Festplatte löscht, aber man begibt sich trotzdem auf gefährliches Terrain,
00:06:32wenn man überhaupt nicht kontrolliert, was der Coding-Agent eigentlich macht.
00:06:39Dennoch besteht der Hauptunterschied zu OpenClaw darin, dass der Coding-Agent keinen Zugriff
00:06:45auf das gesamte digitale Leben hat. Die Idee bei OpenClaw ist ja gerade ein Agent,
00:06:49den selbst Peters Mutter nutzen kann. Ein Agent, der einfach alles für einen erledigen kann.
00:06:57Man schreibt ihm nur: "Hey, bitte check meine Mails und entwirf ein paar Antworten."
00:07:03Dafür benötigt er natürlich Zugriff auf das E-Mail-Konto. Und wenn er diesen Zugriff hat,
00:07:09könnte er E-Mails versenden. Ich rede nicht nur von beleidigenden E-Mails, was schlimm genug wäre,
00:07:14sondern er könnte Daten exfiltrieren. Er kann das System durchsuchen, Daten sammeln
00:07:19und diese dann aufgrund einer Prompt-Injection per E-Mail an einen bösartigen Akteur senden.
00:07:24Das ist das gewaltige Sicherheitsproblem, das ich sehe und das ich in meinem Video geteilt habe.
00:07:30Und dieser Punkt ist wichtig: Das Problem bleibt bestehen, selbst wenn OpenAI hinter dem Projekt steht.
00:07:35Kann man das lösen? Meines Wissens nach funktioniert das bei der Arbeitsweise von LLMs
00:07:42nicht allgemein, sondern nur mit einem Konzept, das wir schon lange kennen: Zero Trust.
00:07:48Die Idee ist, den Agenten in einer Umgebung auszuführen, in der man keiner seiner Aktionen traut,
00:07:54seine Möglichkeiten einschränkt und Berechtigungen für bestimmte Dinge explizit gewähren muss.
00:08:02Beim Versenden von E-Mails müsste man beispielsweise einstellen, dass er für jede einzelne Mail
00:08:10nachfragen muss, damit ein Mensch sie validieren und dann genehmigen oder ablehnen kann.
00:08:14Eine solche Umgebung, die extrem restriktiv ist und ständig nach Erlaubnis fragt,
00:08:20passt natürlich nicht zur Philosophie eines großartigen Agenten, der alles für einen erledigt,
00:08:25während man friedlich schläft. Deshalb sehe ich diese Agenten-Zukunft momentan noch nicht,
00:08:33zumindest nicht in naher Zukunft. Aber wir werden sehen, was OpenAI da erreichen kann.
00:08:39Vielleicht sind ihnen Sicherheitsprobleme auch nicht so wichtig, aber eigentlich müssen sie es sein,
00:08:45da zahlende Kunden kaum erfreut sein dürften, wenn ihre Daten gestohlen werden.
00:08:55Lange Rede, kurzer Sinn: Ich bin immer noch extrem skeptisch, obwohl ich den Reiz von
00:09:03Agenten wie OpenClaw verstehe. Einen hilfreichen 24/7-Assistenten für alles Digitale zu haben,
00:09:10klingt nett, und ich sehe definitiv, dass dies eine Richtung ist, in die wir uns bewegen könnten.
00:09:20Auch wenn ich selbst noch keine Anwendungsfälle habe, für die es super nützlich wäre –
00:09:27da ich keine weitreichenden Berechtigungen erteilen will – verstehe ich absolut,
00:09:35warum OpenAI so brennend an diesem Projekt interessiert ist. Es könnte aber auch bedeuten,
00:09:42dass OpenClaw mit der Zeit verschwindet. Der Hype könnte relativ bald abflauen, auch wegen des
00:09:48Images von OpenAI. Für mich klingt das nach einem typischen Konzern-Statement: "Ja, wir werden
00:09:55das unterstützen", und irgendwann stellen sie den Support ein, bauen ihr eigenes Produkt
00:10:03und dann werden wir sehen, wie gut oder schlecht dieses Produkt am Ende wirklich ist.
00:10:09Jedenfalls bleibt es spannend zu beobachten, ob OpenAI die Sicherheitshürden wirklich meistern kann.
00:10:14Oder ob am Ende die Bequemlichkeit über die Sicherheit siegt, was leider oft der Fall ist.
00:10:20Wir werden es sehen. Vielen Dank fürs Zuschauen und bis zum nächsten Mal!