"من فضلكم توقفوا عن تسميتنا slop" - Microslop

TThe PrimeTime
Computing/SoftwareBusiness NewsInternet Technology

Transcript

00:00:00- لدي أمران مهمان جداً لأقولهما.
00:00:01الأول، انظروا إلى هذه اللحية.
00:00:03حسناً، يبدو أنني أنمّي لحية بالصدفة.
00:00:06ثانياً، قرأت شيئاً على لينكد إن، حسناً؟
00:00:09أعتذر، لكن ها نحن ذا.
00:00:11انظروا إلى هذا.
00:00:12تأملات حول العام المقبل لصناعتنا.
00:00:15هذا بالطبع من الرئيس التنفيذي لمايكروسوفت.
00:00:17وإذا قرأت الرسالة، بالطبع تستمر وهي في الأساس مجرد محتوى ملهم من تشات جي بي تي، تجربة تجعلك تشعر بشعور رائع حقاً، أليس كذلك؟
00:00:27مفهوم جديد يطور الدراجات من أجل العقل.
00:00:29بحيث نفكر دائماً في الذكاء الاصطناعي كسقالة للإمكانات البشرية بدلاً من بديل.
00:00:35واو، يا رجل، يا ساتيا، هذا ملهم جداً.
00:00:38يا رجل، كم عدد استفسارات تشات جي بي تي التي استخدمتها؟
00:00:40ما هو الاستفسار الذي استخدمته يا أخي؟
00:00:41يا أخي، ما هو استفسارك؟
00:00:42هذا إلهام حقيقي.
00:00:44لكن هناك شيء لفت انتباه الجميع من كل هذا وولّد الكثير من الميمز، بما في ذلك هذا، المفضل الشخصي لدي هنا، مايكرو سلوب، وهو هذا السطر هنا.
00:00:54نحن بحاجة إلى تجاوز الجدل بين الركاكة والتطور وتطوير توازن جديد في نظرية العقل يأخذ بعين الاعتبار أن البشر مجهزون بهذه الأدوات المعززة للإدراك الجديدة في تعاملنا مع بعضنا البعض.
00:01:05أولاً، أعني، الذكاء الاصطناعي لا يساعدنا على التواصل مع أي شخص، لكن يمكننا تنحية ذلك جانباً.
00:01:09حسناً، سنتجاهل هذا الجزء.
00:01:11لكن هذه الفكرة أننا نحتاج فقط إلى تجاوز الجدل حول الركاكة.
00:01:14لسنا بحاجة لاستخدام مصطلح الركاكة بعد الآن.
00:01:15مصطلح الركاكة ببساطة غير ضروري.
00:01:17لسنا بحاجة لقول ذلك، أليس كذلك؟
00:01:19صحيح يا جماعة؟
00:01:20حسناً، هذا هو الجزء الذي سأحاول فيه تفكيك هذه المشكلة.
00:01:22وسأقدم في الواقع، أظن، وجهة نظر مختلفة عما أفعله عادة.
00:01:25السبب في أننا نرى الكثير من الناس، حتى الأشخاص العاديين، وليس المتخصصين في التقنية، مجرد الشخص العادي يقول:
00:01:32"أوه، هذا ركيك"
00:01:33، سأحاول قدر استطاعتي أن أشرح لماذا أعتقد أن الناس يشعرون بذلك وما الذي يحدث هنا.
00:01:38لأن المشكلة الأساسية التي أواجهها مع هذا البيان بأكمله هي أنه إذا كان شيء ما جيداً حقاً، لم تضطر أبداً أن تطلب من أحد عدم إهانته.
00:01:46مثلاً لا أحد يصف المنتجات الجيدة بنوع من الشتائم، أليس كذلك؟
00:01:50نحن لا نشير إليها.
00:01:52لا توجد مجموعة من الناس تقول: "أوه نعم، هذه أشياء سيئة".
00:01:56لا، هذا ليس ما يحدث..
00:01:57والسبب هو أن تجربة الشخص العادية معه جيدة حقاً.
00:02:02لذا عندما يحاول ساتيا أن يخبرنا:
00:02:04"مرحباً، نحتاج أن نتوقف عن قول هذه الأشياء"
00:02:07، الأمر يشبه، لماذا لا تقدم ببساطة منتجاً جيداً حقاً.
00:02:11وعندها لن يقول الناس ذلك.
00:02:12سيقولون: "أوه نعم، نعم، نعم، إنه مفيد في الواقع.
00:02:15نعم، هذا يُسمى مفيد.
00:02:16هذا مفيد حقاً".
00:02:17الأمر يذهلني أن تحاول أن تقول: "مرحباً، لا تفعل ذلك.
00:02:18لا تجرؤ على فعل ذلك".
00:02:19لأنه من وجهة نظر مايكروسوفت، من الواضح إلى أين يتجهون، أليس كذلك؟
00:02:20لأنه من وجهة نظر مايكروسوفت، من الواضح إلى أين يتجهون، أليس كذلك؟
00:02:25لقد أعادوا تسمية مايكروسوفت 360 أوفيس.
00:02:29أتذكرون ذلك، حزمة الإنتاجية الخاصة بهم؟
00:02:32تم تغيير الاسم من 360 أوفيس إلى كوبايلوت.
00:02:34هذا صحيح.
00:02:35وهذا يعني أن كوبايلوت هو حزمة برامج أوفيس.
00:02:39كوبايلوت هو الشيء الموجود داخل المستندات النصية الذي يقدم الاقتراحات.
00:02:43كوبايلوت هو الشيء الموجود في GitHub القادر على إنشاء طلبات السحب والتفاعل معك.
00:02:46كوبايلوت هو الإكمال التلقائي داخل محرر VS Code الخاص بك.
00:02:50لماذا تعتقدون أننا لا نريد من الناس إهانة الذكاء الاصطناعي؟
00:02:55حسناً، نريدهم أن ينظروا إليه كشيء جيد.
00:02:57لكن نحن كمبرمجين، يجب أن يكون لدينا رؤى خاصة حول هذا، أليس كذلك؟
00:03:01حسناً، مرحباً، لجميع المؤيدين للذكاء الاصطناعي هناك، لن أقول حتى شيئاً سلبياً هنا.
00:03:05لا يمكنك ببساطة أن تطلب من الذكاء الاصطناعي أن يفعل شيئاً، أليس كذلك؟
00:03:08هناك الكثير من التخطيط الذي يجب عليك القيام به.
00:03:11لديكم ما تسمونه هندسة السياق، هندسة الاستفسارات، أياً كانت الهندسة الجارية هناك، أليس كذلك؟
00:03:17الأمر ليس بسيطاً مثل: "مرحباً، افعل هذا الشيء من أجلي".
00:03:20وبعد ذلك، لأن هذا ينجح أحياناً، وأحياناً لا ينجح على الإطلاق، أليس كذلك؟
00:03:24هذا جزء من المشكلة.
00:03:25نحن، الأشخاص الذين جربوه، نفهم تلك المشكلة.
00:03:29الشخص العادي يحصل على هذه التجربة هنا.
00:03:32هذا شيء صغير من مايكروسوفت مثل أداة البحث حتى تتمكن من البحث في نظامك.
00:03:36انظروا ماذا يقول.
00:03:37"جرب مؤشر الماوس صغير جداً". حسناً، أنت جدة.
00:03:42لا تعرفين شيئاً عن الذكاء الاصطناعي.
00:03:43ستذهبين إلى هنا وستكتبين: "مؤشر الماوس صغير جداً". ماذا حدث؟
00:03:49حسناً، تجلسين هناك ثم تستمرين في الجلوس ولا شيء يحدث.
00:03:54لا شيء يحدث.
00:03:55يبقى هناك فقط.
00:03:56وهذه هي التجربة التي يحصل عليها الشخص العادي.
00:03:58لديهم تجربة الذكاء الاصطناعي المفروضة عليهم في كل مكان في تجربة ويندوز العادية.
00:04:04وهي تعمل بشكل متردد.
00:04:07أحياناً تعمل.
00:04:08وأحياناً لا تعمل.
00:04:09يقول الناس: "نعم، هذا ركيك". هذا ما تعنيه الركاكة.
00:04:12نسميها ركاكة لأن هذا ما هي عليه.
00:04:16لكن أعتقد أن هناك شيئاً مثل العكس لهذه الحجة، وهو ليس فقط:
00:04:19"مرحباً، لا يجب أن تسميها ركاكة بعد الآن"
00:04:21.
00:04:22أعتقد أن التجربة العادية للناس، خاصة الأشخاص الأكثر تواجداً على الإنترنت، هي أن لديهم كل قادة الفكر هؤلاء، أليس كذلك؟
00:04:29يخبرونك باستمرار: "مرحباً يا أخي، أنت مخطئ".
00:04:31مثل: "مرحباً، أعلم أنك جالس هناك وقد أنشأت بعض الكود".
00:04:34وأنت تقول: "أوه، هذا كان جيداً حقاً..
00:04:36حسناً، هذا كان سيئاً حقاً.
00:04:37حسناً، لا يعجبني حقاً لهذه الأسباب، لكنني أحبه لهذه الأسباب
00:04:39"، أليس كذلك؟"
00:04:40لديك رأي دقيق وطبيعي لأنك شخص دقيق وطبيعي.
00:04:44لكنك ترى كل هذه الأشياء على تويتر تخبرك باستمرار:
00:04:47"يا رجل، يا أخي، هذه هي النهاية."
00:04:49يا إلهي.
00:04:50انظر، عمل سنة كاملة أُنجز في ساعة".
00:04:53لذا توقعات الناس خارجة عن السيطرة تماماً..
00:04:56وأعتقد أنه لم يكن هناك مثال أسوأ في حياتي كلها من هذه التغريدة هنا.
00:05:03سأقرؤها لكم.
00:05:04"أنا لا أمزح.
00:05:05هذا ليس مضحكاً". حسناً، تغريدة جادة أيها الناس.
00:05:08نحن لا نفعل...
00:05:09مرحباً، هذا ليس كلاماً هيناً، حسناً؟
00:05:10هذا الأمر الكبير.
00:05:11"كنا نحاول بناء منسقات للوكلاء الموزعين في جوجل منذ العام الماضي.
00:05:15هناك خيارات متعددة وليس الجميع متفقين.
00:05:18أعطيت كلود كود وصفاً للمشكلة.
00:05:20أنتج كل ما بنيناه في العام الماضي في ساعة واحدة".
00:05:24من الواضح، ماذا تقرأ هناك؟
00:05:26تقرأ شيئين.
00:05:27أولاً، هذا المهندس الرئيسي ومجموعتها لا بد أن يكونوا، أ، غير أكفاء لأن عدة أشخاص أمضوا عاماً وتم إعادة إنتاجه في كلود في ساعة.
00:05:38حسناً، يجب أن أقول، يا أخي، هذا جنوني نوعاً ما.
00:05:42يبدو هذا وكأنه...
00:05:43أي نوع من عدم الكفاءة يحدث في جوجل؟
00:05:45أعلم أن جوجل ليست معقل الهندسة كما كانت، لكن هذا لا يمكن أن يكون صحيحاً، أليس كذلك؟
00:05:50هذا لا يمكن أن يكون الطريقة الصحيحة لقراءته.
00:05:51بالطبع، الطريقة الأخرى لقراءة هذا، بالطبع، هي أن كلود كود مذهل إلى هذا الحد.
00:05:57أعطيته وصفاً صغيراً للمشكلة وبادا-بينج، بادا-بوم.
00:06:02جهدك لعام كامل تم حله في ساعة وربما حوالي 50 دولاراً من الرموز.
00:06:09الآن هذه التغريدة بحد ذاتها، لا أستطيع تخيل كمية الذعر والمشاكل التي واجهتها بسبب هذا الأمر الواحد، وقد تواصل معي بالفعل عدة أشخاص بسبب هذا الأمر الواحد ليسألوني أسئلة، هل ما زال من الآمن فعلياً التعلم؟
00:06:21ربما يجب أن أتوقف عن التعلم، أليس كذلك؟
00:06:23يجب أن أكتفي بالبرمجة السطحية.
00:06:24يجب أن أتوقف عن فعل هذا لأن من الواضح أنه الأفضل على الإطلاق.
00:06:26هذه التغريدة تدمر مسيرات مهنية في حياة الناس.
00:06:30الأسوأ في هذه التغريدة، بعد 28 ساعة، هذا ما نحصل عليه.
00:06:34لتجاوز الضجيج حول الموضوع، من المفيد توفير المزيد من السياق.
00:06:38نعم، أوه، حسناً، حسناً، حسناً.
00:06:40ربما لم تكن التغريدة السابقة دقيقة تماماً كما تم إيهامنا.
00:06:44لقد بنينا عدة إصدارات من النظام العام الماضي.
00:06:46هناك مقايضات ولم يكن هناك فائز واضح.
00:06:49عندما يتم تزويدها بأفضل الأفكار التي نجت، تكون وكلاء البرمجة قادرة على المضي بعيداً جداً وتوليد نسخة تجريبية جيدة ولائقة في ساعة أو نحو ذلك.
00:06:57حسناً، الآن لم تعد ساعة واحدة.
00:07:00يمكن أن تكون ساعة ونصف.
00:07:01يمكن أن تكون 45 دقيقة.
00:07:02إنها مجرد فترة زمنية ما.
00:07:03حسناً، الإطار الزمني يتغير قليلاً، لكن الأهم نسخة لعبة لائقة.
00:07:08عندما أسمع نسخة لعبة، لا أسمع ما بنيته العام الماضي.
00:07:11أسمع ظلاً لما تم بناؤه، شيء يشبهه نوعاً ما، لكنه ليس مثله على الإطلاق.
00:07:18أيضاً، فوق كل ذلك، عندما يُطلب منه أفضل الأفكار التي نجت، فدعني أفهم هذا بوضوح، ليس فقط وصف المشكلة، إذاً أنت لست حتى، كل الموضوع كان كذبة، أليس كذلك؟
00:07:28لأنك قلت وصف المشكلة.
00:07:29لقد أعطيتهم الوصف فقط.
00:07:30لا، لقد أعطيته مجموعة من الأفكار قضيت عاماً في البحث عنها.
00:07:35على الأرجح توصلت إلى وثيقة تقنية رائعة حقاً عن كل هذه الأشياء ثم أدخلتها في كلود كود ثم كنا مثل، يا إلهي، أنشأ شيئاً مما قلنا للتو أنه يجب أن ينشئه وقام بعمل نسخة لعبة منه.
00:07:46إنه فقط مثل هذا، هذا النوع من الأشياء، يجعلني أكره الذكاء الاصطناعي، أليس كذلك؟
00:07:50وليس لأن الذكاء الاصطناعي ليس رائعاً أو أياً كان، توليد النصوص، كله رائع للغاية.
00:07:53أعني، بجدية، انظر إلى شعار فيم ذاك، حسناً؟
00:07:56الآن الذي أحرق غابة من أجله، لكنه هذا المبالغة في البيع.
00:08:02وهذا يعني ببساطة أنه في كل مرة أستخدم فيها الذكاء الاصطناعي، تكون توقعاتي عالية جداً، لكن واقعي مختلف تماماً.
00:08:11قضيت حوالي تسع ساعات متواصلة من برمجة الأجواء مؤخراً في محاولة لإعادة بناء مثل هذا، مجرد تطبيق كلاود فلير مبتدئ.
00:08:17واحد، عامل وحاوية.
00:08:19أنفقت حوالي 75 إلى 100 دولار لفعل هذا.
00:08:22من تسع ساعات، حصلت على شيء يمكن إنشاؤه في ربما 15 دقيقة إذا كنت على دراية.
00:08:27وبالطبع، مشاكل في المطالبات، كنت أستخدم التخطيط، كنت أستخدم أوبس 4.5 ماكس.
00:08:32كنت حقاً أطرح الكثير من الأسئلة.
00:08:34خرج عن السكة كثيراً.
00:08:36كما تعلم، ربما كنت أفعل الشيء الخطأ، أياً كان.
00:08:39لا يهم.
00:08:40فعلت شيئاً وكان لدي نتيجة جيدة.
00:08:42هناك بعض الأجزاء منه أعجبتني حقاً.
00:08:44هناك بعض الأجزاء لم تعجبني.
00:08:45هناك أجزاء من كلاود فلير لست على دراية بها والتي وفرت لي حوالي ساعة من البحث.
00:08:50هناك أجزاء كنت على دراية بها وقام بعمل فظيع فيها.
00:08:53لذلك كان مثل، مرحباً، كانت تجربة رائعة.
00:08:55تعلمت الكثير.
00:08:56أعرف المزيد من الأشياء عنه، لكن هذا لم يكن، يا إلهي، فعل كل ما فعلته في عام ومحا كل شيء تماماً.
00:09:03إنه أكثر مثل، مرحباً، هناك مجموعة من الحواف الحادة.
00:09:05هناك بعض الأجزاء الرائعة.
00:09:06هناك أجزاء ليست رائعة.
00:09:07لا أفهم لماذا يستمر الناس في محاولة بيعه على أنه شيء رائع.
00:09:12سيجعل ذلك حرفياً الكثير من الناس يتوقفون عن تسمية الأشياء بالرديئة ويقولون فقط، أوه نعم، نعم، يجب أن تكون حذراً بشأن ذلك، أليس كذلك؟
00:09:19مثل نعم، سنتحدث عنه بشكل طبيعي فقط إذا لم نحصل على ضجة مستمرة.
00:09:24لقد سئمت من أن تكون توقعاتي هنا وواقعي هنا.
00:09:29على أي حال، أردت فقط أن أتحدث عن هذا.
00:09:30أنا، آسف.
00:09:31أشعر بالإحباط من كل هذا الأمر لأنني أشعر فقط أن هذين الأسبوعين الماضيين على تويتر لم يكونا سوى أكبر قدر من المبالغة في مدح كلود كود في حياتي بأكملها.
00:09:42استخدمت تطبيق TUI.
00:09:43كان هناك فقط مثل، أعني، واجهت الكثير من الأخطاء الصغيرة معه، وهو أمر صادم أيضاً.
00:09:47وميض، ألترا ثينك لا يلون حتى ألترا ثينك بشكل صحيح بقوس قزح.
00:09:52إنه فقط، يا رجل.
00:09:54أعني، تلك ليست حتى، أعني، ما الذي يحدث هنا؟
00:09:57إذا كان الذكاء الاصطناعي العام قد وصل، أريد تطبيق TUI يعمل، حسناً؟
00:10:01التمرير، التمرير لا يعمل حتى بشكل صحيح.
00:10:03كنترول O لا يعمل بشكل صحيح.
00:10:05لا يمكنك كنترول O فتح أو توسيع.
00:10:07أعني، كان هناك الكثير من المشاكل، لكن مرة أخرى، يمكن أن تكون مشاكل مهارة من جانبي.
00:10:12الاسم هو مشكلة المهارة، ويجين.
00:10:15أيضاً، هل لاحظت شيئاً واحداً؟
00:10:17لماذا الشيوعيون والأشخاص المتحمسون للغاية للذكاء الاصطناعي يتحدثون دائماً بنفس الطريقة؟
00:10:23إنهم دائماً مثل، أوه، حسناً، لم تفعل ذلك بشكل صحيح في الواقع.
00:10:26انظر، المشكلة كانت أنك في الواقع، انظر، لم تفعل ذلك بشكل صحيح.
00:10:29إنه فقط مثل، حسناً، نحن جميعاً لا يوجد اسكتلندي حقيقي هنا.
00:10:32لم أدرك ذلك.
00:10:33كل تجربة سيئة هي لا يوجد اسكتلندي حقيقي.
00:10:35كل تجربة جيدة هي، نعم، لهذا السبب يتم ترك جميع الخاسرين وراءهم.
00:10:39لا أفهم ذلك.
00:10:40لا أعرف.
00:10:40آسف على الزيادة، مع السلامة.
00:10:42مرحباً، هل تريد أن تتعلم كيفية البرمجة؟
00:10:43هل تريد أن تصبح مهندس خلفية أفضل؟
00:10:45حسناً، عليك أن تتحقق من boot.dev.
00:10:47الآن، أنا شخصياً قمت بعمل زوجين من الدورات منهم.
00:10:49لدي جولات حية، متاحة مجاناً على يوتيوب للدورة بأكملها، كل شيء على boot.dev.
00:10:54يمكنك المرور عليها مجاناً، ولكن إذا كنت تريد التجربة المُلَعَّبة، تتبع تعلمك وكل ذلك، فعليك دفع المال، لكن مرحباً، اذهب وتحقق منهم.
00:11:02إنه رائع.
00:11:03لأي منشئي محتوى تعرفهم وتحبهم، اصنع دورات هناك، boot.dev/prime للحصول على خصم 25%.

Key Takeaway

المبالغة الإعلامية المفرطة حول قدرات الذكاء الاصطناعي تخلق توقعات غير واقعية تؤدي إلى خيبة أمل المستخدمين وتبرر وصف المحتوى بالركاكة، بينما الحل الحقيقي هو تقديم منتجات جيدة فعلياً بدلاً من مطالبة الناس بعدم انتقادها

Highlights

ساتيا ناديلا، الرئيس التنفيذي لمايكروسوفت، يطالب بالتوقف عن استخدام مصطلح 'slop' (الركاكة) لوصف محتوى الذكاء الاصطناعي

مايكروسوفت أعادت تسمية حزمة Office 365 إلى Copilot، مما يعكس استراتيجية دمج الذكاء الاصطناعي في جميع منتجاتها

تغريدة مضللة من مهندس رئيسي في جوجل ادعى أن Claude Code أنجز عمل سنة كاملة في ساعة واحدة، ثم تراجع عن تصريحاته لاحقاً

المبالغة الإعلامية المستمرة حول قدرات الذكاء الاصطناعي تخلق فجوة كبيرة بين التوقعات والواقع الفعلي

تجربة المستخدم العادي مع الذكاء الاصطناعي غالباً ما تكون محبطة وغير موثوقة، مما يبرر استخدام مصطلح 'slop'

المتحمسون للذكاء الاصطناعي يستخدمون منطق 'لا اسكتلندي حقيقي' لتبرير الفشل: كل تجربة سيئة هي خطأ المستخدم

المتحدث أنفق 75-100 دولار و9 ساعات على مشروع Cloudflare بسيط كان يمكن إنجازه في 15 دقيقة بشكل تقليدي

Timeline

مقدمة حول منشور ساتيا ناديلا على LinkedIn

يبدأ المتحدث بتقديم موضوعه الرئيسي: منشور من ساتيا ناديلا، الرئيس التنفيذي لمايكروسوفت، على LinkedIn بعنوان 'تأملات حول العام المقبل لصناعتنا'. يسخر المتحدث من لغة المنشور التي تبدو وكأنها مكتوبة بواسطة ChatGPT، مليئة بعبارات ملهمة عن الذكاء الاصطناعي كـ'دراجات للعقل' و'سقالة للإمكانات البشرية'. أبرز ما لفت الانتباه في المنشور هو طلب ساتيا من الناس 'تجاوز الجدل بين الركاكة والتطور' وتطوير 'توازن جديد في نظرية العقل'. يشير المتحدث إلى أن هذا الطلب بالتوقف عن استخدام مصطلح 'slop' (الركاكة) هو الجزء الذي أثار الكثير من الميمز والسخرية على الإنترنت.

تحليل لماذا يطلب ساتيا التوقف عن مصطلح 'الركاكة'

يقدم المتحدث حجة منطقية بسيطة: إذا كان المنتج جيداً حقاً، لن يحتاج أحد لطلب عدم إهانته، لأن المستخدمين لن يستخدموا مصطلحات سلبية لوصفه بشكل طبيعي. يربط هذا باستراتيجية مايكروسوفت في إعادة تسمية Office 365 إلى Copilot، مما يعني أن Copilot أصبح هو حزمة البرمجيات بأكملها - في المستندات، في GitHub، في VS Code، وفي كل مكان. يوضح أن الشركة تريد من الناس النظر إلى الذكاء الاصطناعي كشيء إيجابي لأسباب تجارية واضحة. ثم يتحول للحديث عن تجربة المبرمجين الذين يفهمون أن استخدام الذكاء الاصطناعي ليس بسيطاً كما يُصوَّر، بل يتطلب 'هندسة السياق' و'هندسة الاستفسارات' والكثير من التخطيط.

مثال واقعي على فشل الذكاء الاصطناعي من تجربة المستخدم العادي

يقدم المتحدث مثالاً ملموساً من نظام Windows حيث يوجد مربع بحث مدعوم بالذكاء الاصطناعي يقترح على المستخدمين تجربة استفسارات مثل 'مؤشر الماوس صغير جداً'. يتخيل سيناريو حيث تحاول جدة غير تقنية استخدام هذه الميزة، فتكتب الاستفسار ثم لا يحدث شيء - يبقى النظام معلقاً دون استجابة. هذا هو واقع تجربة المستخدم العادي مع الذكاء الاصطناعي المدمج في Windows: ميزات مفروضة في كل مكان تعمل بشكل متردد وغير موثوق. يؤكد المتحدث أن الناس يسمون هذا 'ركاكة' لأن هذا بالضبط ما هو عليه - أداء ضعيف وتجربة محبطة. هذا المثال الواقعي يوضح الفجوة بين الوعود والأداء الفعلي للذكاء الاصطناعي في حياة المستخدمين اليومية.

التغريدة المضللة من مهندس جوجل وتأثيرها المدمر

يعرض المتحدث تغريدة 'جادة' من مهندس رئيسي في جوجل ادعى أن فريقه عمل لمدة عام على بناء 'منسقات للوكلاء الموزعين'، ثم أعطى Claude Code وصفاً للمشكلة فأنتج كل ما بنوه في ساعة واحدة. يحلل المتحدث هذه التغريدة ويشير إلى أنها تقود القراء لاستنتاجين: إما أن فريق جوجل غير كفؤ تماماً، أو أن Claude Code مذهل إلى درجة خارقة. يصف كيف أن هذه التغريدة تسببت في ذعر حقيقي، حيث تواصل معه أشخاص يسألون إذا كان لا يزال من الآمن تعلم البرمجة أو إذا كان يجب عليهم التوقف. بعد 28 ساعة، نشر المهندس تغريدة متابعة توضح أنه لم يعط فقط 'وصفاً للمشكلة'، بل 'أفضل الأفكار التي نجت' من عام كامل من البحث، وأن النتيجة كانت مجرد 'نسخة تجريبية لائقة' وليس المنتج الكامل، مما يكشف أن التغريدة الأولى كانت مضللة بشكل كبير.

المشكلة الأساسية: الفجوة بين التوقعات والواقع

يشرح المتحدث كيف أن المبالغة الإعلامية المستمرة على تويتر من 'قادة الفكر' الذين يدعون أن الذكاء الاصطناعي 'أنجز عمل سنة كاملة في ساعة' تخلق توقعات خارجة عن السيطرة تماماً. يشارك تجربته الشخصية حيث أنفق 75-100 دولار وقضى 9 ساعات متواصلة محاولاً بناء تطبيق Cloudflare بسيط باستخدام Claude Code، مشروع كان يمكن إنجازه في 15 دقيقة إذا كان الشخص على دراية بالأدوات التقليدية. استخدم Opus 4.5، والتخطيط، وطرح الكثير من الأسئلة، لكن النظام 'خرج عن السكة كثيراً'. يعترف بأن بعض الأجزاء كانت جيدة ووفرت له وقت البحث، بينما أجزاء أخرى كانت 'فظيعة'. هذه التجربة المختلطة هي الواقع الفعلي، وليست المعجزات التي يُروَّج لها. يؤكد أن هذه الفجوة بين التوقعات العالية والواقع المتواضع هي ما يجعل الناس محبطين ويستخدمون مصطلح 'الركاكة'.

إحباط من الضجة المستمرة ومشاكل تطبيق TUI

يعبر المتحدث عن إحباطه الشديد من 'أسبوعين من أكبر قدر من المبالغة في مدح Claude Code في حياته بأكملها' على تويتر. يشارك تجربته مع تطبيق TUI (واجهة المستخدم النصية) الخاص بـ Claude Code، حيث واجه 'الكثير من الأخطاء الصغيرة' بشكل صادم. يذكر أمثلة محددة: ميزة 'Ultra Think' لا تُلَوَّن بشكل صحيح بألوان قوس قزح، التمرير لا يعمل بشكل صحيح، Control+O لا يعمل لفتح أو توسيع الملفات. يسخر قائلاً: 'إذا كان الذكاء الاصطناعي العام قد وصل، أريد تطبيق TUI يعمل'. يعترف أن هذه قد تكون مشاكل مهارة من جانبه، لكنه يشير إلى نمط: المتحمسون للذكاء الاصطناعي يستخدمون دائماً منطق 'لا اسكتلندي حقيقي' (No True Scotsman fallacy) - كل تجربة سيئة هي خطأ المستخدم ('لم تفعل ذلك بشكل صحيح')، بينما كل تجربة جيدة تُستخدم كدليل على تفوق التقنية.

الخاتمة والدعوة للتوقف عن المبالغة

يختتم المتحدث بملاحظة أنه لا يفهم لماذا المتحمسون للذكاء الاصطناعي والشيوعيون (بشكل ساخر) يتحدثون بنفس الطريقة في تبرير الفشل. يعتذر عن 'الزيادة' (الغضب) ويودع المشاهدين بسرعة. رسالته الأساسية واضحة: بدلاً من مطالبة الناس بالتوقف عن تسمية منتجات الذكاء الاصطناعي بـ'الركاكة'، يجب على الشركات ببساطة تقديم منتجات جيدة حقاً. إذا توقفت المبالغة الإعلامية المستمرة، سيتمكن الناس من الحديث عن التقنية بشكل طبيعي ودقيق، مع تقدير نقاط القوة والضعف بموضوعية. ينهي الفيديو بإعلان قصير لـ boot.dev، منصة تعليم البرمجة، مقدماً كود خصم 25% للمشاهدين.

Community Posts

View all posts