00:00:00أصبح مشروع OpenClaw جزءًا من OpenAI، كما أن بيتر شتاينبرجر، مؤسس OpenClaw،
00:00:05ينضم الآن إلى OpenAI. وأعتقد أن هذا الأمر مثير للاهتمام من منظور المطورين لعدة
00:00:12أسباب. فهو يخبرنا بشيء عن التوجه الذي تسلكه OpenAI وله بعض
00:00:17الدلالات المثيرة للاهتمام، كما أرى. في تدوينة شاركها بيتر على موقعه الإلكتروني، ذكر أن
00:00:25مهمته القادمة هي بناء وكيل ذكاء اصطناعي يمكن حتى لوالدته استخدامه. لأنه بالطبع مع OpenClaw حاليًا،
00:00:32لا تزال بحاجة إلى مستوى معين من المعرفة التقنية أو الخبرة من أجل إعداده
00:00:38واستخدامه. وأزعم أن هذا أمر جيد، لأنني كما جادلت أيضًا في فيديو قبل بضعة
00:00:45أيام أو أسابيع، يمكن أن يكون OpenClaw خطيرًا أو يعاني من مشاكل أمنية خطيرة، وهو ما يجهله
00:00:53الكثير من الناس حتى من ذوي الخبرة التقنية أو يتجاهلونه ببساطة. أو أنهم لا يقومون
00:01:00بأشياء مفيدة باستخدام OpenClaw بقدر ما يشاركون. وهو أمر وارد تمامًا بالطبع لأنه،
00:01:06كما تعلمون، هذا هو الإنترنت ونحن في عام 2026. على أي حال، شاركت رأيي في OpenClaw في ذلك الفيديو،
00:01:12لكنني سأعود إليه من وقت لآخر هنا. إن مهمة امتلاك وكيل ذكاء اصطناعي قابل للاستخدام
00:01:19من قبل الجميع أساسًا، بافتراض أن والدته ليست مطورة محترفة، هو بالتأكيد ما تسعى إليه
00:01:27كل شركات الذكاء الاصطناعي، مثل OpenAI وThoughtbreak. لأن وجودنا نحن المطورين
00:01:34كعملاء لأدوات مثل Cloud Code وCodex وما إلى ذلك، وهي أدوات رائعة، هو أمر جيد، ولكن
00:01:41السوق هناك أكبر بكثير. وبالطبع الهدف النهائي لهذه الشركات هو الوصول إلى نقطة
00:01:47تقوم فيها وكلاء الذكاء الاصطناعي بكل شيء، وبشكل أساسي، يمكننا استبدال البشر. أولاً في الفضاء الرقمي
00:01:56ثم باستخدام الروبوتات في كل مكان. الآن، لن أخوض في مسألة ما إذا كان ذلك سيحدث قريبًا.
00:02:04أعتقد أنني شاركت رأيي في هذا في العديد من الفيديوهات بالفعل. أنا لا أرى حتى المطورين يتم استبدالهم
00:02:11في أي وقت قريب، ناهيك عن البشر بشكل عام. ولا أعتقد أيضًا أن هذا هدف جيد. ولكن أجل،
00:02:18هذه قصة مختلفة تمامًا. المثير للاهتمام هنا هو ما شاركه سام ألتمان بأنه مع
00:02:27انضمام بيتر شتاينبرجر إلى OpenAI، فإنهم يتوقعون في النهاية أن يصبح OpenClaw سريعًا جزءًا
00:02:35جوهريًا من عروض منتجاتنا. أي وكيل ذكاء اصطناعي مثل OpenClaw. وذكر أيضًا أن OpenClaw
00:02:42سيعيش في مؤسسة كمشروع مفتوح المصدر، لذا سيبقى مفتوح المصدر، وستستمر OpenAI
00:02:48في دعمه. فالمستقبل سيكون متعدد الوكلاء للغاية، ومن المهم بالنسبة لنا دعم
00:02:54المصادر المفتوحة كجزء من ذلك. ما أفهمه من هذا التصريح بوضوح شديد هو أن OpenAI
00:03:01ستبني عرضها الخاص من الوكلاء فوق OpenClaw أو باستخدام بعض الدروس المستفادة أو حتى أجزاء من
00:03:09قاعدة بيانات OpenClaw. لذا، نعم، سيبقى OpenClaw مفتوح المصدر وسيستمرون في دعمه،
00:03:16ربما تمامًا كما سيستمرون هم في البقاء “منفتحين”. لا أعرف. لكنهم بالتأكيد سيبنون أيضًا
00:03:22وكيلاً بناءً على كل تلك الدروس المستفادة من OpenClaw، والذي حسب فهمي لن يكون
00:03:29مفتوحًا على الأرجح، بل سيكون عرضًا مدفوعًا، وهو أمر منطقي تمامًا من وجهة نظر تجارية.
00:03:34الآن، في الفيديو الخاص بي، شاركت بعض المخاوف المتعلقة بالأمان في OpenClaw. وأكبر
00:03:44مخاوفي ليست بشأن الثغرات في البرمجة، والتي يمكن بالطبع إصلاحها بمرور الوقت
00:03:50وحيث يمكن لشركة بحجم OpenAI أن تساعد كثيرًا في دعمك. ليس هذا هو
00:03:58أكبر مخاوفي. كان ولا يزال أكبر قلق لي مع OpenClaw هو حقن الأوامر (Prompt Injections).
00:04:08هذا هو قلقي الأول مع كل هؤلاء الوكلاء. وهي مشكلة جوهرية في النماذج اللغوية الكبيرة.
00:04:16وكلاء البرمجة رائعون. مساعدون ممتازون. لكنهم يرتكبون الكثير من الأخطاء. ويحتاجون إلى توجيه.
00:04:25وكلما سمعت أشخاصًا يخبرونني أن بإمكانهم بالفعل كتابة برمجيات كاملة من البداية للنهاية، أتحرق
00:04:31شوقًا لرؤية كل تلك البرمجيات، لأن تجربتي لم تكن كذلك. ولكن في أيدي
00:04:37مطور قدير، يمكن لوكلاء البرمجة هؤلاء بالفعل أن يحققوا دفعة كبيرة في الإنتاجية. هذه هي
00:04:44تجربتي معهم. وهذا هو رأيي في وكلاء البرمجة. لكن الأهم أنهم بعيدون كل البعد
00:04:50عن استبدال المطورين. وبالطبع، البرمجة إلى حد ما هي أفضل مهمة لنماذج الذكاء الاصطناعي هذه
00:04:58والنماذج اللغوية الكبيرة لأنها تعتمد على إدخال نص وإخراج نص. والكثير من السياق ذي الصلة، ليس
00:05:04كله، ولكن الكثير منه موجود هناك في قاعدة البيانات ليراه النموذج ويستخدمه.
00:05:10وهذا بالطبع فرق هائل مقارنة بالعديد من المهام الأخرى في العالم، وفي العالم الرقمي أيضًا.
00:05:16ولكن بغض النظر عما إذا كنا نتحدث عن وكلاء البرمجة أو وكلاء مثل OpenClaw، فإن حقن
00:05:22الأوامر يمثل مشكلة كبرى. الآن، يمكن أن يكون حقن الأوامر خفيًا أو غير متوقع. وبالطبع،
00:05:30قد تقول إنك أنت من يكتب الأوامر مع OpenClaw أو وكلاء البرمجة، ولكن بمجرد أن
00:05:37يذهب وكيل البرمجة لزيارة موقع ويب أو في حالة OpenClaw، يقرأ بريدًا إلكترونيًا، وكل ذلك،
00:05:44فإن كل هذا النص الذي يهضمه يذهب إلى أمر جديد. وهذا يمثل ثغرة للهجوم عبر حقن
00:05:51الأوامر. الآن مع وكلاء البرمجة، الميزة هي أولاً، أنه يجب عليك تشغيلهم في بيئة معزولة (Sandbox)،
00:05:58ولكن ثانيًا، ليس لديهم عادةً وصول واسع إلى حساب بريدك الإلكتروني، أو وصول إلى كل
00:06:05حياتك الرقمية. وأنت كمطور يجب أن تنتبه لما يفعله وكيل البرمجة الخاص بك.
00:06:13يتعين عليك عادةً منح الإذن أو رفضه. فهو يسألك طوال الوقت عما إذا كان
00:06:18مسموحًا له بفعل هذا أو ذاك. وبالطبع يمكنك تشغيله في وضع خطير. وإذا وضعته
00:06:24في بيئة معزولة، فقد تكون آمنًا بما يكفي لكي لا يمسح قرصك الصلب، لكنك
00:06:32تدخل منطقة خطرة رغم ذلك عندما يتعلق الأمر بحقن الأوامر، إذا لم تكن
00:06:39تراقب ما يفعله وكيل البرمجة الخاص بك على الإطلاق. ومع ذلك، فإن الفرق الجوهري مقارنة
00:06:45بمشروع OpenClaw هو أن وكيل البرمجة لا يملك حق الوصول إلى حياتك الرقمية بالكامل.
00:06:49الآن، الفكرة مع OpenClaw بالطبع هي امتلاك ذلك الوكيل الذي يمكن حتى لوالدة بيتر استخدامه.
00:06:57وبالطبع الفكرة هي أن يكون لديك وكيل يمكنه فعل أي شيء من أجلك. فترسل له نصًا مثل: “مرحبًا،
00:07:03يرجى التحقق من رسائل البريد الإلكتروني الخاصة بي وكتابة بعض الردود.”. بالطبع، يحتاج حينها إلى الوصول لحساب بريدك.
00:07:09وإذا كان لديه وصول لحساب بريدك الإلكتروني، فيمكنه إرسال رسائل. وأنا لا أتحدث عن
00:07:14إرسال رسائل قد يبدأ فيها بإهانة الناس، وهو أمر سيء بما فيه الكفاية، ولكنه قد يسرب
00:07:19البيانات، فخمن ماذا؟ يمكنه أيضًا جمع البيانات. يمكنه التجول في نظامك، وجمع البيانات،
00:07:24ثم إرسالها عبر بريد إلكتروني إلى جهة خبيثة بسبب حقن أمر، على سبيل المثال.
00:07:30هذه هي المشكلة الأمنية الضخمة التي أراها، والتي شاركتها في هذا الفيديو، وبالطبع
00:07:35لا تزال قائمة. وهذا هو الجزء المهم، أنها ستستمر حتى مع وجود OpenAI خلف المشروع.
00:07:42الآن، هل هذا شيء يمكن حله؟ حسب فهمي لطريقة عمل النماذج اللغوية الكبيرة،
00:07:48فإن الحل ليس بشكل عام، بل فقط باستخدام مفهوم لدينا منذ فترة طويلة،
00:07:54وهو ما يسمى “انعدام الثقة” (Zero Trust). الفكرة هي أن تقوم بتشغيل وكيل البرمجة في بيئة
00:08:02لا تثق فيها بأي من أفعاله وتضع قيودًا على ما يمكنه فعله، وعليك أن تمنح
00:08:10أذونات صريحة لأشياء معينة تريد السماح له بالقيام بها. فمثلاً، عندما يتعلق الأمر
00:08:14بإرسال رسائل البريد الإلكتروني، قد ترغب في إعداد بيئة يتعين عليه فيها طلب الإذن لكل
00:08:20رسالة بريد إلكتروني يريد إرسالها، وعليك كإنسان التحقق منها ثم الموافقة على الطلب أو رفضه.
00:08:25بالطبع، مثل هذه البيئة، التي تعتبر مقيدة للغاية وتطلب منك طوال الوقت
00:08:33منح إذن معين من عدمه، لا تتماشى حقًا مع تلك الفلسفة
00:08:39التي تهدف لامتلاك وكيل مذهل يمكنه القيام بكل شيء نيابة عنك بينما أنت غارق في النوم.
00:08:45وهذا هو السبب في أنني لا أرى مستقبل الوكلاء هذا الآن، وربما ليس في أي وقت قريب،
00:08:55لكننا سنرى ما يمكن لشركة OpenAI فعله هناك على ما أظن. قد لا يهتمون
00:09:03كثيرًا بالقضايا الأمنية، ولكن من ناحية أخرى ربما يتعين عليهم ذلك لأن عملائهم الذين يدفعون
00:09:10لن يكونوا سعداء إذا تم تسريب بياناتهم. باختصار، ما زلت متشككًا للغاية رغم أنني أرى
00:09:20جاذبية وكلاء مثل OpenClaw. فوجود ذلك المساعد المفيد المتاح على مدار الساعة طوال أيام الأسبوع لمساعدتك
00:09:27في الأمور الرقمية قد يبدو لطيفًا للغاية، وأرى بالتأكيد أن هذا مستقبل قد نتجه
00:09:35نحوه. ورغم أنه ليس لدي حتى الآن حالات استخدام تكون فيها مفيدة للغاية لأنني لا
00:09:42أريد منحها تلك الأذونات الواسعة، وحتى معها لست متأكدًا مما إذا كان سيكون لدي الكثير من
00:09:48حالات الاستخدام، ولكن حتى مع وضع كل ذلك في الاعتبار، أتفهم تمامًا سبب اهتمام OpenAI البالغ بهذا المشروع.
00:09:55وقد يعني ذلك أيضًا بمرور الوقت أن OpenClaw سيتلاشى نوعًا ما، وقد تخبو الضجة
00:10:03حوله قريبًا نسبيًا بسبب صورة OpenAI وبالطبع لأنني حسبما قرأت،
00:10:09يبدو هذا التصريح مثل التصريحات الشركاتية المعتادة حيث يقولون “أجل، سنقوم
00:10:14بدعم هذا” ثم في مرحلة ما يتوقفون عن دعمه، ولا يكترثون، ويبنون
00:10:20منتجهم الخاص، وعندها أعتقد أننا سنرى مدى جودة أو سوء ذلك المنتج.