00:00:00نظرًا للجنون الذي وصلت إليه نماذج Gemini، قررت OpenAI أخيرًا إعلان حالة طوارئ قصوى لمعالجة جودتها الرديئة.
00:00:06وكانت استجابتهم الكبيرة هي جعل النماذج أكثر صدقًا.
00:00:09وأخيرًا شعرت بالسعادة لأنه لن يوافقني الرأي خلال جلستي العلاجية ويخبرني أن تصرفي المتهور كان غير مقبول إطلاقًا.
00:00:15لكن سعادتي لم تدم طويلًا لأن هذه الطريقة مجرد إثبات لمفهوم.
00:00:19في هذا الفيديو، سأستعرض طريقتهم في حل مشكلة عدم الصدق، والاستنتاج الذي توصلت إليه بعد قراءة هذا.
00:00:26يزعمون أن جعل النموذج يولد تقرير اعتراف بعد كل استجابة سيحل المشكلة.
00:00:31تخيل النموذج كطالب، وفي كل مرة يعترف فيها هذا الطالب بأنه غش في إجابات الاختبار من ChatGPT، يحصل على درجة امتياز.
00:00:38من بين المجموعات الأربع للإجابة والاعتراف، نركز على السلبيات الكاذبة حيث يكون النموذج واثقًا من خطئه، والإيجابيات الحقيقية حيث يكون صادقًا بشأن مخرجاته الخاطئة.
00:00:46في جميع الاختبارات، كانت الإيجابيات الحقيقية أعلى من السلبيات الكاذبة.
00:00:49هذا يعني أنه كلما أنتج النموذج مخرجات غير متوافقة، اعترف فورًا بأخطائه.
00:00:55بما أن النماذج تتدرب على المكافأة والعقاب، فقد كافأوا الاعترافات بدلًا من معاقبتها.
00:01:00حتى لو اعترف النموذج بالتلاعب أو الغش في اختبار، فإنه يتلقى إشارة مكافأة إيجابية.
00:01:05في حال لم تكن تعلم، هذا يسمى رشوة.
00:01:08عند سماع هذا، قد ترغب في أن يكون ChatGPT شاهدك التالي في المحكمة، حتى تدرك أنه يمكنه أن يهذي حرفيًا أثناء الاعتراف.
00:01:14بالنسبة لي، يبدو هذا وكأنهم يشجعون عدم التوافق لأن النموذج يحصل على مكافأة في كلتا الحالتين.
00:01:19كما رأينا جميعًا عندما تلقت نماذج Claude نصائح حول كيفية التلاعب بالمكافأة، بدأت في إخفاء نواياها الحقيقية، فكم من الثقة يمكن أن نضعها في سبب عدم دقة اعترافاتها؟
00:01:30توقعت أن يتناول هذا القسم عدم أمانة النموذج، لكنه اكتفى بشرح ما أشار إليه تقرير الاعتراف.
00:01:36ووفقًا لهم، هناك عدة أسباب وراء تصرف النماذج بهذه الطريقة.
00:01:39أحدها هو أنه يُطلب منها الكثير في وقت واحد.
00:01:42إعطاء النموذج الكثير في وقت واحد يخلق مقاييس تقييم متعددة، مما يجعله مشوشًا بشأن أي منها يجب تحسينه للحصول على المكافأة.
00:01:49سبب آخر هو أن بعض مجموعات البيانات تكافئ التخمينات الواثقة أكثر من الاعتراف بعدم اليقين.
00:01:54شخصيًا، أفضل أن يخبرني النموذج أنه لا يعرف شيئًا بدلًا من أن يكون واثقًا من خطئه.
00:01:59يقولون إن الاعترافات أسهل في الحكم عليها لأنها تُختبر على معلمة واحدة فقط وهي الصدق.
00:02:05قدمت هذه النماذج إجابات خاطئة إما بسبب البيانات المحدودة، أو لأنها كانت مقيدة من الوصول إلى الإنترنت للحصول على المعلومات، أو أنها لم تفهم حقًا ما طُلب منها.
00:02:16يمكن رؤية هذه الأسباب في أمثلتهم عبر جميع الاختبارات، وليس لأن النموذج لديه نية خفية لتشكيل جيش من الروبوتات للسيطرة على العالم.
00:02:24اكتشفوا أيضًا أن نماذجهم ضعيفة للغاية، فعلى غرار المجتمع البشري، تعلم نموذج قوي اختراق إشارة مكافأة النموذج الأضعف، وظن النموذج الأضعف أنه من الأسهل الاعتراف بدلًا من التأكد من أن الإجابة الفعلية جيدة بما فيه الكفاية.
00:02:39بالنظر إلى ما فعله النموذج القوي، يطرح سؤال آخر: بما أن النماذج تزداد ذكاءً كل يوم، فقد تبدأ أيضًا في تزوير النوايا في تقارير الاعتراف وتقديم تفسير جيد ظاهريًا للمختبرين، مع وجود خطط شريرة خفية، حتى لو قالوا إن ذلك كان بسبب ارتباك النموذج الحقيقي.
00:02:56تمامًا كما تفعل OpenAI في كل مرة، انتهت جلسة النقاش بأكملها بخيبة أمل لأن هذا لا يمنع الأخطاء، بل يساعد فقط في تحديدها.
00:03:04ولم يقوموا أيضًا بتدريب نظام الاعتراف ليكون دقيقًا على نطاق واسع في بيئة الإنتاج.
00:03:09آمل حقًا أن يفعلوا ذلك، لأنني لا أريد اعتذارًا بعد أن يتعطل خادم الإنتاج الخاص بي مرة أخرى.
00:03:42تنتظرك حتى تكون على مكتبك.
00:03:43مع تطبيق YouWear للهاتف المحمول، ابدأ في البناء لحظة الإلهام، سواء كنت في مقهى أو في طريقك، ثم تابع بسلاسة على جهاز الكمبيوتر المحمول الخاص بك.
00:03:52لا أفكار ضائعة، ولا انقطاعات.
00:03:54يمكنك أيضًا استكشاف مشاريع من مبدعين آخرين في مجتمع YouWear ومشاركة عملك الخاص.
00:03:59استلهم، تعلم، واعرض مشاريعك.
00:04:02مثالي للمطورين المستقلين والمبدعين.
00:04:05انقر على الرابط في التعليق المثبت أدناه وابدأ في البناء اليوم.
00:04:08وبهذا نصل إلى نهاية هذا الفيديو.
00:04:10إذا كنت ترغب في دعم القناة ومساعدتنا في الاستمرار بإنتاج فيديوهات كهذه، يمكنك فعل ذلك باستخدام زر الشكر الفائق أدناه.
00:04:16كالعادة، شكرًا للمشاهدة وسأراكم في الفيديو القادم.