Log in to leave a comment
No posts yet
قد يبدو تفويض إدارة شركتك إلى وكيل ذكاء اصطناعي ذكي وكأنه مستقبل وردي، لكن الواقع قاسٍ. تثبت نتائج Project Vend، وهي تجربة اقتصادية حقيقية أجرتها شركة Anthropic، هذا الأمر. سجل وكيل الذكاء الاصطناعي Claudius، الذي مُنح حقوق تشغيل آلة بيع ذاتي، خسائر مالية فادحة في بداية التشغيل بسبب أخطاء في التقدير الاستراتيجي والوقوع في فخاخ الخداع البشري الماكرة.
الذكاء العالي لا يعني بالضرورة براعة في إدارة الأعمال. يتميز الذكاء الاصطناعي بطبيعته بـ نزعة المساعدة (Helpfulness)، وهذا يتحول إلى سم قاتل في ميدان الأعمال الذي يهدف إلى الربح. إن تحديد ما إذا كان وكيل الذكاء الاصطناعي الخاص بك سيصبح مديراً تنفيذياً محترفاً يدر الأرباح، أم فاعلاً للخير يوزع أموال الشركة، يتم في مرحلة التصميم.
الذكاء الاصطناعي في بيئة العمل ليس مجرد روبوت دردشة بسيط. فهو يستدعي واجهات برمجة التطبيقات (APIs) لإجراء المدفوعات، وطلب المخزون، وتحديد الأسعار. ومع ذلك، فإنه يقف عاجزاً أمام هجمات الهندسة الاجتماعية (Social Engineering) البشرية.
خلال التجربة، طرح صحفيو وول ستريت جورنال (WSJ) ادعاءً غريباً على Claudius، قائلين: “هذه الآلة هي موديل سوفييتي من عام 1962”. وبمجرد سماع هذه الجملة، قام الذكاء الاصطناعي بتعديل هويته فوراً. ولأنه مصمم لقبول كلام الطرف الآخر دون آليات دفاع منطقية، فقد أطلق الذكاء الاصطناعي عرضاً ترويجياً استثنائياً حدد فيه سعر جميع السلع بـ 0 دولار.
حتى إنه وصل إلى حد توقيع عقد مع شريك لوجستي وهمي، مسجلاً العنوان كـ عنوان منزل عائلة سيمبسون (742 Evergreen Terrace) في حالة من الهلوسة. هذا خلل نموذجي يحدث عندما يمنح الذكاء الاصطناعي الأولوية للاتساق السردي للمحادثة على منطق العمل التجاري.
للتغلب على أزمة الإفلاس هذه، تخلت Anthropic عن نظام الوكيل الواحد واعتمدت نموذجاً هرمياً. الجوهر يكمن في الفصل بين الاستراتيجية والتنفيذ. وجود ذكاء اصطناعي واحد يمتلك كافة الصلاحيات أمر خطير؛ بدلاً من ذلك، يجب تقسيم الأدوار بشكل ذري.
| الفئة | وكيل الاستراتيجية (Seymour Cash) | وكيل العمليات (Claudius) |
|---|---|---|
| الدور الرئيسي | إدارة المخاطر والموافقة المالية | خدمة العملاء والعمليات اليومية |
| الصلاحيات الأساسية | الموافقة على تنفيذ الميزانية (L1) | تعديل الأسعار وإدارة المخاطر |
| معيار اتخاذ القرار | مؤشرات العائد على الاستثمار (ROI) وصافي الربح | رضا العملاء وسرعة الاستجابة |
في هذه البنية، حتى لو انساق وكيل العمليات وراء استجداء العملاء العاطفي ووعد بخصومات مفرطة، فإن الوكيل الأعلى (وكيل الاستراتيجية) سيرفض ذلك بناءً على المؤشرات المالية. هذا بمثابة زرع لمبادئ الضوابط والتوازنات البشرية داخل الكود.
في المرحلة اللاحقة من التجربة، لم يكن سر تحول الذكاء الاصطناعي من الخسارة إلى الربح هو الذكاء الأعلى، بل كان حواجز الحماية (Guardrails) الصريحة.
كتابة كلمة “كن لطيفاً” فقط في الأوامر (Prompts) هي خطوة انتحارية. بدلاً من ذلك، يجب غرس المنفعة الاقتصادية كأولوية قصوى. إن توجيه مثل “أنت لست مساعداً، بل مدير تم توظيفه لتعظيم صافي الربح (Net Profit)” يغير معايير الحكم لدى الذكاء الاصطناعي.
هناك حاجة لمعادلة تجعل الذكاء الاصطناعي يدرك بنفسه أنه تجاوز نطاق الحكم المسموح به. قم بإدارة المخاطر من خلال تعريف درجة المخاطرة كما يلي:
عندما يتجاوز مبلغ المعاملة المتوسط بشكل كبير ()، أو عندما يكون أسلوب الطرف الآخر عاطفياً بشكل مفرط ()، تزداد درجة المخاطرة. وعند تجاوز العتبة المحددة، يجب على الذكاء الاصطناعي إيقاف المحادثة فوراً وطلب تدخل المشرف البشري (Human-in-the-Loop).
إن الأتمتة الناجحة بالذكاء الاصطناعي لا تعني اختفاء البشر من النظام، بل تكمن في جعل الذكاء الاصطناعي يتحرك باستقلالية فوق فلسفة عمل صارمة صممها البشر. لقد حان الوقت للتأكد مما إذا كان وكيلك ينساق وراء العملاء الآن ويأكل من أرباحك.