تفعيل الذكاء الاصطناعي: ما هي الأخطاء التي تخطئ فيها الشركات بشأن توسيع نطاق النماذج

نشرت: 2025-11-24

ينفق المديرون التنفيذيون الملايين على الذكاء الاصطناعي، ومع ذلك، وجدت دراسة أجرتها مجموعة بوسطن الاستشارية لعام 2025 أن حوالي 5٪ فقط من الشركات تحصل على قيمة قابلة للقياس من الذكاء الاصطناعي على نطاق واسع ، في حين أن معظمها لا ترى سوى القليل أو لا شيء على الإطلاق. وفي الوقت نفسه، تظهر العديد من الدراسات الاستقصائية أن أكثر من نصف مشاريع الذكاء الاصطناعي لا تصل إلى مرحلة الإنتاج أبدًا أو يتم التخلي عنها بعد إثبات المفهوم بسبب ضعف البيانات، وضعف الإدارة، وعدم وضوح قيمة الأعمال.

المشكلة لا تكمن في الافتقار إلى النماذج الذكية. تكمن المشكلة في كيفية إدارة هذه النماذج وامتلاكها وصيانتها يومًا بعد يوم. وبعبارة أخرى، فإن عمليات الذكاء الاصطناعي هي المكان الذي تكمن فيه معظم المخاطر ومعظم الجانب الإيجابي.

يبحث منشور الضيف هذا في سبب فشل توسيع نطاق الذكاء الاصطناعي في كثير من الأحيان، وما الخطأ الذي يحدث في الخنادق، وكيف يغير نهج العمليات أولاً المسار.

لماذا يفشل توسيع نطاق الذكاء الاصطناعي في معظم المؤسسات؟

لا تعاني معظم المؤسسات الكبيرة من نقص في تجارب الذكاء الاصطناعي. يُظهر أحدث استطلاع أجرته شركة ماكينزي حول حالة الذكاء الاصطناعي أن جميع المشاركين تقريبًا أفادوا أنهم يستخدمون الذكاء الاصطناعي في مكان ما، ومع ذلك فإن أقلية صغيرة فقط تشهد تأثيرًا مستدامًا على مستوى المؤسسة.

ماذا يحدث في الممارسة العملية:

  • تم إطلاق العشرات من إثباتات المفهوم عبر وحدات الأعمال
  • نظرة حفنة واعدة في العرض
  • عدد قليل جدًا من البرامج ينجو من مراجعات الأمان وأعمال التكامل وتعليقات المستخدم الحقيقية

يوجد تحت هذا النمط بعض المشكلات التي يمكن التنبؤ بها:

  • الذكاء الاصطناعي باعتباره "مبادرة" لمرة واحدة بدلاً من القدرة التشغيلية
    يتم التعامل مع الذكاء الاصطناعي كمشروع له تاريخ بدء وانتهاء. هناك دورة الميزانية، البائع، لوحة القيادة، والعرض التقديمي. ما هو مفقود هو رؤية الذكاء الاصطناعي كمنتج يحتاج إلى خارطة طريق وملكية وميزانية تشغيل.
  • الطيارون الذين يتجاهلون بيئة الإنتاج
    يعتمد العديد من الطيارين بهدوء على مجموعات البيانات المنسقة يدويًا، أو هندسة الميزات اليدوية، أو مستخدم قوي واحد. لا شيء من هذا موجود في النظام البيئي الحي. عندما تحاول الفرق نقل نفس المنتج إلى الإنتاج، يتغير كل شيء بدءًا من الوصول إلى البيانات وحتى سلوك زمن الاستجابة في وقت واحد.
  • لا توجد وجهة نظر اقتصادية للتحجيم
    تسمع المجالس قصصًا عن إنتاجية تبلغ 10 أضعاف. ما نادرًا ما يرونه هو وجهة نظر مكلفة للبنية التحتية وإمكانية المراقبة وتحديثات النماذج وإدارة التغيير. وبدون ذلك، تتصاعد التوقعات وينتهي الأمر بالذكاء الاصطناعي على قائمة "الابتكار الفاشل" عندما تكون الموجة الأولى من المشاريع مخيبة للآمال.

لا تزال معظم قواعد التشغيل الخاصة بتوسيع نطاق الذكاء الاصطناعي للمؤسسات تفترض أنه بمجرد اختيار النموذج والنظام الأساسي المناسبين، فإن الباقي هو في الأساس تفاصيل التنفيذ. في الواقع، غالبًا ما تكون الطريقة التي تصمم بها عمليات الذكاء الاصطناعي وتديرها أكثر أهمية من نموذج اللغة الكبير الذي اخترته في المقام الأول.

المخاطر التشغيلية المشتركة

عندما أنظر إلى مبادرات الذكاء الاصطناعي الفاشلة أو المتوقفة، أجد دائمًا نفس الأنماط التشغيلية.

المزالق التي تراها في البرية

أعراض في الإنتاج ما تراه في الأسبوع 1 السبب الجذري في العمليات
يعمل النموذج في المختبر، ويتوقف في الإنتاج طفرات زمن الوصول أو المهلات أو الميزات المفقودة لا يوجد تكافؤ بيئي، وبنية تحتية مخصصة
"الصندوق الأسود" يؤدي إلى توقف المستخدمين عن الثقة شكاوى حول حالات الحافة الغريبة والتحيز لا توجد حلقة ردود فعل واضحة، ولا يوجد توثيق للسلوك النموذجي
مكافحة الحرائق التي لا نهاية لها بعد بدء البث المباشر انسحب علماء البيانات إلى قنوات الحوادث ركزت المراقبة على الأشعة تحت الحمراء فقط، وليس على سلوك النموذج
تستغرق تحديثات النموذج أشهرًا يتجمد الإصدار في كل مرة يتم فيها اقتراح تغيير التعامل مع نشر النموذج كمشروع مخصص في كل مرة

وراء هذه الأعراض، تستمر بعض المشكلات الهيكلية في الظهور:

  • سلاسل توريد البيانات المجزأة
    تأتي بيانات التدريب والاختبار والخدمة من مسارات مختلفة، ولكن خدمات إدارة البيانات توحد خطوط الأنابيب هذه لتقليل الانحراف وعدم الاستقرار. تتصرف النماذج بشكل جيد في الاختبارات، ثم تتصرف بشكل سيء في الإنتاج لأن توزيع المدخلات والحداثة مختلفان تمامًا.
  • التعاون على الحائط
    يمتلك علماء البيانات دفاتر ملاحظات. تمتلك فرق المنصة مجموعات. يمتلك أصحاب الأعمال مؤشرات الأداء الرئيسية. لا أحد يملك دورة الحياة الكاملة من المفهوم إلى التقاعد. تؤدي كل عملية تسليم إلى حدوث تأخيرات وإعادة صياغة وعدم تطابق دقيق في التوقعات.
  • يتم التعامل مع المخاطر التشغيلية كفكرة لاحقة
    يتم دمج الشؤون القانونية والامتثال والأمن في المحادثة بمجرد اقتراب إطلاق شيء ما. إنهم يرون الحل النهائي، ويثيرون مخاوف مشروعة، ويتوقف المشروع. يبدو الأمر وكأن "الحوكمة تمنع الذكاء الاصطناعي" في حين أن المشكلة الحقيقية تكمن في التأخر في التدخل.

بدون استراتيجية لعمليات الذكاء الاصطناعي ، سيظل الطيارون عالقين. وينتهي بك الأمر بالحصول على مجموعة من الأعمال المثيرة للاهتمام التي لا تنضم أبدًا إلى نسيج كيفية إدارة الشركة.

MLOps باعتبارها الحلقة المفقودة في عمليات الذكاء الاصطناعي

غالبًا ما يتم وصف MLOps باسم "DevOps للتعلم الآلي". وهذا التعريف صحيح من الناحية الفنية، لكنه يوضح ما يجري. من الناحية العملية، MLOps هو النظام الذي يحول النماذج إلى أنظمة جاهزة للتشغيل ويربطها بنتائج الأعمال الحقيقية.

يمكنك التفكير في عمليات الذكاء الاصطناعي باعتبارها ثلاث طبقات يجب على عمليات MLOs أن تجمعها معًا:

  • أصول

تظهر الأبحاث حول اعتماد عمليات MLOps أن ممارسات مثل تنسيق سير العمل، وقابلية التكرار، وإصدار الإصدارات، والمراقبة، كلها ترتبط بزيادة رضا المستخدم ونتائج أفضل. يبدو هذا مجردًا حتى تلاحظ مدى واقعية أنماط الفشل عندما تكون هذه الممارسات مفقودة.

MLOps ليست فئة أدوات تشتريها مرة واحدة. إنه العمود الفقري التشغيلي الذي يسمح لفرق علوم البيانات والنظام الأساسي والمنتجات بالعمل كنظام واحد. ولهذا السبب يقع في قلب برامج عمليات الذكاء الاصطناعي الجادة.

الحوكمة والمراقبة التي تعمل في الحياة الحقيقية

تستجيب العديد من الشركات لمخاطر الذكاء الاصطناعي من خلال كتابة وثائق سياسية طويلة. ويتمكن عدد أقل من تحويل هذه المستندات إلى إجراءات يومية للفرق التي تقوم ببناء النماذج وتشغيلها.

تميل عمليات الذكاء الاصطناعي الناضجة إلى بناء الحوكمة في ثلاث حلقات عملية:

  • حلقة المراقبة الفنية

يشير التحليل الأخير للصناعة إلى أن سوء إدارة البيانات وضعف الرقابة على الذكاء الاصطناعي هما بالفعل السببان الرئيسيان وراء توقع فشل العديد من مشاريع الذكاء الاصطناعي أو إلغاؤها خلال العام أو العامين المقبلين.

تتعامل المؤسسات الأكثر نجاحًا التي أعمل معها مع هذه الحلقات كجزء من قواعد اللعبة الخاصة بعمليات الذكاء الاصطناعي ، وليس "مبادرات المخاطر" المنفصلة. إنهم يقومون بأتمتة أكبر قدر ممكن (نسب البيانات، وفحوصات التحكم في الوصول، واكتشاف الانجراف) ويقضون الوقت البشري حيث تكون هناك حاجة إلى الحكم.

دراسات حالة حول توسيع نطاق الذكاء الاصطناعي بنجاح

ولتوضيح ذلك، دعونا نلقي نظرة على نمطين مجهولين يظهران كثيرًا.

دراسة الحالة 1: من مسرح إثبات المفهوم إلى الذكاء الاصطناعي للإنتاج

كان لدى أحد متاجر التجزئة العالمية أكثر من 40 حالة استخدام للذكاء الاصطناعي في مراحل تجريبية مختلفة: التنبؤ بالطلب، والتسعير الديناميكي، وتخصيص التسويق، وعمليات المتجر. اثنان فقط كانا على قيد الحياة في أي وقت، وكلاهما يتطلب تدخلًا يدويًا مستمرًا.

المشاكل الرئيسية:

  • قام كل فريق ببناء خطوط الأنابيب وأنماط الأشعة تحت الحمراء الخاصة به
  • لا توجد معايير مشتركة للمراقبة أو الوصول إلى البيانات أو نشر النموذج
  • رأى أصحاب الأعمال أن الذكاء الاصطناعي هو "مشروع تكنولوجيا المعلومات"، وليس كجزء من الربح والخسارة

غيرت الشركة مسارها وأنشأت مجموعة عمليات مركزية صغيرة للذكاء الاصطناعي تتولى ثلاث مسؤوليات:

  • تحديد والحفاظ على مكدس MLOps المرجعي (أنماط استيعاب البيانات والتدريب وخطوط الأنابيب والخدمة وتتبع التجربة وتسجيل النماذج).
  • وضع وإنفاذ معايير المراقبة والحوكمة والإبلاغ عن التكاليف.
  • قم بتدريب فرق العمل على التعامل مع حالات استخدام الذكاء الاصطناعي كمنتجات ذات مالكين ومقاييس نجاح وخرائط طريق.

خلال 18 شهرًا:

  • انخفض الوقت من الفكرة إلى إصدار الإنتاج الأول من 9-12 شهرًا إلى حوالي 8 أسابيع
  • تم تشغيل أكثر من 20 نموذجًا باستخدام أدوات مشتركة، بدلاً من البرامج النصية المخصصة
  • تربط المراجعات ربع السنوية كل حالة استخدام بالتأثير القابل للقياس على الهامش والمخزون

الجزء المثير للاهتمام هو ما لم يتغير. ظلت النماذج الأساسية متشابهة إلى حد ما. وجاء التغيير التدريجي من خلال توسيع نطاق الذكاء الاصطناعي المؤسسي المنضبط من خلال العمليات المشتركة، وليس من الخوارزميات الجديدة الغريبة.

دراسة الحالة 2: الذكاء الاصطناعي الصناعي الذي يظل على اتصال بالواقع

حاولت إحدى الشركات الصناعية استخدام نماذج الصيانة التنبؤية للمعدات المهمة. المحاولة الأولى فشلت. بدت النماذج التي تم تدريبها على بيانات أجهزة الاستشعار التاريخية دقيقة في الاختبارات غير المتصلة بالإنترنت، إلا أنها أنتجت الكثير من الإنذارات الكاذبة أثناء الإنتاج. توقف الفنيون عن الاهتمام.

وجدت مراجعة داخلية ثلاثة أسباب جذرية:

  • تم تنظيف بيانات التدريب بطرق لا تعكس ضوضاء المستشعر الحقيقية
  • كان خط الأنابيب المباشر يفتقد إشارتين رئيسيتين كانتا موجودتين في التدريب
  • لم يقم أحد برسم خريطة لكيفية تغيير التنبؤات النموذجية لسير عمل الفنيين

وفي المحاولة الثانية، أعاد الفريق صياغة العمل باعتباره مشكلة توسيع نطاق الذكاء الاصطناعي المؤسسي بدلاً من مسابقة علوم البيانات.

هم:

  • تم تحديد "عقد بيانات" واضح لتدفقات أجهزة الاستشعار، مع ضمانات حول تكرار أخذ العينات والوحدات ومعالجة البيانات المفقودة
  • تم تنفيذ مسار MLOps موحد بدءًا من الاستيعاب وحتى التقديم، بحيث يمكن للنماذج المُعاد تدريبها الانتقال إلى الإنتاج بأقل قدر من الاحتكاك
  • إشراك الفنيين في التصميم، مع ضبط الحدود وتنسيقات التنبيه على واقعهم

يشمل الرصد الآن مؤشرات الانجراف والتعليقات الميدانية. وعندما بدأ النموذج في التدهور، تمت معالجة عملية إعادة التدريب من خلال نفس المسار الموحد بدلاً من مشروع إنقاذ لمرة واحدة.

وفي غضون عام واحد، انخفضت فترات التوقف غير المخطط لها في فئة الأصول المستهدفة بشكل ملحوظ. كان التغيير الأكثر أهمية هو موثوقية المسار الكامل، وليس القفزة الكبيرة في دقة النموذج.

إلى أين نذهب من هنا؟

إذا كنت جادًا بشأن توسيع نطاق النماذج، فابدأ بالتعامل مع عمليات الذكاء الاصطناعي باعتبارها نظامًا من الدرجة الأولى:

  • قم برسم خريطة لدورة الحياة الكاملة لحالتين إلى ثلاث حالات استخدام عالية القيمة بدءًا من استيعاب البيانات وحتى التقاعد
  • حدد كل خطوة يدوية، وعمليات تسليم، و"عملية ظل" تحافظ على استمرارية النماذج
  • حدد عناصر مكدس MLOps الخاصة بك التي سيتم مشاركتها، مع تحديد الإعدادات الافتراضية
  • قم ببناء الحوكمة والمراقبة في تلك الإعدادات الافتراضية بدلاً من وضعها في الأعلى

إن المنظمات التي ستكون لها أهمية في الموجة التالية من الذكاء الاصطناعي ليست هي تلك التي لديها العروض التوضيحية الأكثر بريقًا. إنهم الأشخاص الذين يمكنهم تشغيل العشرات من نماذج الإنتاج وتطويرها بهدوء دون دراما، شهرًا بعد شهر. إذا تمكنت من الوصول بعمليات الذكاء الاصطناعي إلى هذا المستوى من النضج، فستبدأ بقية قصتك في الاهتمام بنفسها.