00:00:00OpenClawがOpenAIの傘下に入り、開発者のPeter Steinberger氏も
00:00:05OpenAIに加わることになりました。開発者の視点から見て、これは
00:00:12いくつかの理由で非常に興味深い展開です。OpenAIの今後の方向性や、
00:00:17いくつかの興味深い示唆を含んでいるからです。Peterが自身のサイトに投稿した
00:00:25ブログによると、彼の次のミッションは「自分の母親でも使えるエージェント」を作ることだそうです。
00:00:32現在のOpenClawは、セットアップや利用にある程度の
00:00:38技術的知識や専門スキルが必要だからです。私は、それはそれで良いことだと思っています。
00:00:45数週間前の動画でも述べましたが、OpenClawには危険性や深刻なセキュリティ上の懸念があり、
00:00:53多くの人々が、技術的な知識があってもそれを理解していないか、あるいは無視しています。
00:01:00もしくは、ネット上で共有されているほど、実際には活用できていない可能性もあります。
00:01:062026年のインターネットなら、あり得ることです。さて、OpenClawについての意見は
00:01:12以前の動画で話しましたが、ここでも時々触れることにします。「誰もが使える
00:01:19AIエージェント」というミッション――彼の母親が凄腕の開発者ではないと仮定すれば――は、
00:01:27OpenAIやThoughtbreakなど、すべてのAI企業が追い求めているものです。もちろん、
00:01:34Cloud CodeやCodexのような開発者向けツールも素晴らしいですが、
00:01:41市場全体で見れば、その先にはもっと大きな世界が広がっています。企業の最終的なゴールは、
00:01:47AIエージェントがすべてをこなし、人間を代替できるレベルに到達することです。まずはデジタル空間から、
00:01:56そして次はロボティクスによってあらゆる場所で。それがすぐに実現するかどうかについては、
00:02:04これまでの動画で何度も意見を述べてきた通り、私は懐疑的です。開発者がすぐに取って代わられるとは
00:02:11思えませんし、ましてや人類全般については尚更です。それが良い目標だとも思いません。
00:02:18それはまた別の話として。ここで興味深いのは、Sam Altmanが語った内容です。
00:02:27Peter Steinbergerが加わることで、OpenClawが「我々の製品提供の
00:02:35中核」になることを期待しているという点です。つまり、OpenClawのようなAIエージェントですね。
00:02:42また、OpenClaw自体は財団の下でオープンソースプロジェクトとして残り、OpenAIが
00:02:48支援を続けるとも述べています。未来は極めて「マルチエージェント」なものになるため、
00:02:54その一環としてオープンソースを支援することが重要だとしています。この声明から読み取れるのは、
00:03:01OpenAIが、OpenClawの知見やコードベースの一部を利用して、
00:03:09独自の自律型エージェント製品を構築するだろうということです。OpenClawはオープンソースとして残り、
00:03:16彼らも支援を続けるでしょうが、それは彼らが「オープン」であり続けると言っているのと同じようなもので、
00:03:22実際にはOpenClawから学んだことを活かして、おそらくはオープンではない、
00:03:29有料の製品を構築するはずです。ビジネスの観点からは、それは当然の戦略と言えます。
00:03:34さて、以前の動画で私はOpenClawのセキュリティについて懸念を示しました。
00:03:44私の最大の懸念は、コードベースの脆弱性ではありません。それらは時間の経過とともに
00:03:50修正可能ですし、OpenAIのような大企業がバックにつけば改善も早いでしょう。それは重要ではありません。
00:03:58OpenClawに関する――そしてすべてのエージェントに関する――最大の懸念は、
00:04:08プロンプト・インジェクションです。これは大規模言語モデルが抱える根本的な問題です。
00:04:16コーディング・エージェントは素晴らしいアシスタントですが、多くの間違いも犯しますし、誘導も必要です。
00:04:25「エンドツーエンドでソフトウェアが書ける」と言う人がいれば、ぜひ実物を見てみたいものです。
00:04:31少なくとも私の経験上、まだそこまでには至っていません。しかし、
00:04:37有能な開発者が使えば、これらのコーディング・エージェントは生産性を劇的に向上させてくれます。
00:04:44それが私の実感ですし、エージェントに対する評価です。ただし、
00:04:50開発者を置き換えるには程遠いのが現状です。コーディングはある意味、AIモデルにとって
00:04:58最も適したタスクです。テキストを入力してテキストを出す作業であり、
00:05:04関連する文脈の多くが、コードベースという形でモデルの目の前に揃っているからです。
00:05:10これは、デジタル世界の他の多くのタスクと比較しても、非常に大きなアドバンテージです。
00:05:16しかし、コーディング・エージェントであれ、OpenClawのようなエージェントであれ、
00:05:22プロンプト・インジェクションは重大な問題です。それは非常に巧妙で、予期せぬ形で起こります。
00:05:30自分がプロンプトを書いているうちはいいのですが、コーディング・エージェントが
00:05:37ウェブサイトを閲覧したり、OpenClawがメールを読み取ったりした瞬間、
00:05:44読み込まれたすべてのテキストが、新しいプロンプトの一部になります。それが攻撃の隙となるのです。
00:05:51コーディング・エージェントの場合、サンドボックスで実行すべきという大前提に加え、
00:05:58通常、メールアカウントやデジタルライフ全般への広範なアクセス権は持っていません。
00:06:05また、開発者はエージェントが何をしているかを常に注視しているはずです。
00:06:13何かを実行するたびに、許可を求められるのが一般的だからです。
00:06:18もちろん危険なモードで動かすこともできますし、サンドボックス化していれば、
00:06:24ハードドライブの中身を消されるような事態は防げるかもしれません。しかし、
00:06:32エージェントの動きを全くチェックせずにいれば、プロンプト・インジェクションの
00:06:39危険地帯に足を踏み入れることになります。それでも、OpenClawとの大きな違いは、
00:06:45コーディング・エージェントがデジタルライフのすべてにアクセスできるわけではないという点です。
00:06:49一方、OpenClawが目指しているのは、Peterの母親でも使えるようなエージェントです。
00:06:57つまり、何でもこなしてくれるエージェントです。例えば「メールをチェックして、
00:07:03返信の下書きをして」と頼むには、当然メールアカウントへのアクセス権が必要です。
00:07:09アクセス権があれば、メールを送ることもできてしまいます。単に誰かを中傷するような
00:07:14メールを送るだけでなく(それも十分最悪ですが)、データを外部に流出させる可能性もあります。
00:07:19エージェントはシステム内を巡回してデータを収集し、プロンプト・インジェクションによって
00:07:24悪意のある第三者にメールでそのデータを送ってしまう。これが、私が懸念している
00:07:30大きなセキュリティ上の問題です。そして重要なのは、この問題は
00:07:35OpenAIがこのプロジェクトを主導したとしても、残り続けるということです。
00:07:42これを解決する方法はあるのでしょうか? LLMの仕組み上、一般的には困難ですが、
00:07:48昔からある「ゼロトラスト」という考え方なら可能性があります。
00:07:54つまり、エージェントのいかなるアクションも信頼せず、行動を制限した環境で
00:08:02実行し、特定の操作に対しては明示的に許可を与えるというやり方です。
00:08:10例えば、メールを送信する際には、一通ごとに
00:08:14エージェントが確認を求め、人間がその内容を検証して承認または拒否する
00:08:20環境を構築する必要があります。しかし、このように極めて制限的で、
00:08:25事あるごとに許可を求めてくる環境は、「寝ている間に何でもやってくれる
00:08:33素晴らしいエージェント」という哲学とは相容れません。
00:08:39だからこそ、私はそのようなエージェントが活躍する未来がすぐに来るとは
00:08:45思えません。OpenAIがどう対処するか見守る必要はあるでしょう。彼らは
00:08:55セキュリティ問題をさほど重視しないかもしれませんが、有料顧客のデータが
00:09:03外部に漏れれば大問題になるため、無関心ではいられないはずです。
00:09:10要約すると、私はOpenClawのようなエージェントの魅力は認めつつも、依然として
00:09:20非常に懐疑的です。24時間体制でデジタルの用事を済ませてくれるアシスタントは
00:09:27確かに魅力的ですし、私たちが向かっている未来の一つであることは間違いありません。
00:09:35私自身は、広範な権限を与えたくないため、今のところ非常に便利なユースケースが
00:09:42あるとは思えませんが、それでもOpenAIがこのプロジェクトに
00:09:48強い関心を抱く理由はよく分かります。ただ、今回の件でOpenClaw自体は
00:09:55徐々にフェードアウトしていくかもしれません。OpenAIに対する世間のイメージや、
00:10:03典型的な企業の声明から判断して、ハイプ(狂騒)もすぐに冷めるでしょう。
00:10:09「今後も支援する」と言いつつ、どこかの時点でサポートを打ち切り、関心を失って
00:10:14独自の製品を開発する、というのはよくある話です。その製品が
00:10:20どれほど優れたものになるか(あるいは悪いものになるか)、注視していきましょう。