اختتم مؤتمر «IBM Think 2026» فعالياته في بوسطن، مسلطاً الضوء على أن المرحلة القادمة من الذكاء الاصطناعي المؤسسي لن تعتمد على امتلاك أكبر عدد من النماذج، بل على القدرة الفعلية لتشغيله ضمن بيئة الأعمال. وتحدث محمد علي، نائب الرئيس الأول ورئيس «IBM Consulting»، ومارك هيوز، الشريك الإداري العالمي لخدمات الأمن السيبراني في «IBM Consulting»، لـ«الشرق الأوسط» عن التحديات التي تواجه الشركات للانتقال بالذكاء الاصطناعي من مرحلة التجارب إلى التشغيل الفعلي.
أكد المسؤولان في «IBM Think 2026» أن هذه المرحلة تتطلب إعادة تصميم مسارات العمل، وتنظيم البيانات والسياق، وإدارة القوى العاملة الرقمية، وبناء حوكمة وأمن محكمين لإبقاء الذكاء الاصطناعي تحت السيطرة عند تأثيره على العمليات الحقيقية.
الذكاء الاصطناعي المؤسسي: ما بعد التجارب والتحديات
يرى محمد علي أن العديد من المؤسسات لا تواجه مشكلة في نقص الأدوات، بل في عدم قدرتها على إعادة هندسة طريقة تنظيم العمل لديها. وأوضح أن التحدي الرئيس يكمن في كيفية إعادة تصميم العمليات لتحقيق قيمة أفضل للأعمال.
وصف علي المرحلة الأولى من تطبيقات الذكاء الاصطناعي بأنها تركز على مهام بسيطة ومحددة، بينما تتطلب المرحلة التالية دمج هذه التطبيقات بطريقة آمنة ومنظمة لتحويلها إلى قيمة أعمال حقيقية ضمن مسار عمل متكامل. وهذا ما يفسر سبب عدم تجاوز الكثير من جهود الذكاء الاصطناعي المؤسسي مرحلة التجارب.
أشار محمد علي إلى أن إحدى المشكلات الشائعة هي الطموحات الأولية الواسعة جداً، حيث يٌوعد الذكاء الاصطناعي أحياناً بتقديم حلول شاملة تفوق النطاق الأولي الممكن. وتنجح المؤسسات عادةً في البدء بحالات استخدام أضيق وواضحة القيمة، ثم ربطها لاحقاً ضمن سير عمل أوسع.
من المشاكل المتكررة أيضاً، عدم التفكير المنهجي في الحوكمة عند نقل استخدامات الذكاء الاصطناعي إلى مرحلة الإنتاج. كما أشار إلى ظهور ما أسماه “الذكاء الاصطناعي الظلّي”، حيث تتبنى بعض الأقسام أدوات بشكل منفصل دون رؤية شاملة لكيفية إعادة تصميم العملية المؤسسية، مما قد يؤدي إلى «تدمير للقيمة» بدلاً من خلقها.
نموذج تشغيل جديد للذكاء الاصطناعي
تؤكد «آي بي إم» في طرحها هذا العام على مفهوم «نموذج تشغيل الذكاء الاصطناعي». لا يقتصر الأمر على مجرد إضافة المزيد من الذكاء الاصطناعي، بل على دمجه في كيفية عمل المؤسسة ككل، وتحويله من مجموعة تجارب منفصلة إلى قدرة تشغيلية أساسية.
ضرب علي مثالاً من داخل «آي بي إم»، حيث قامت الشركة بنشر الذكاء الاصطناعي على نطاق واسع عبر تفكيك المؤسسة إلى 490 مسار عمل، واختيار 70 منها، وبناء 220 عاملاً رقمياً. هدف هذا التحول إلى إعادة تصميم مجالات مثل الموارد البشرية والمالية وسلسلة الإمداد لتصبح «بشرية + رقمية»، مما أدى إلى وفورات تقدّر بنحو 4.5 مليار دولار بحلول عام 2025. وأكد أن هذه الوفورات لا تتحقق إلا عندما يصبح الذكاء الاصطناعي جزءاً لا يتجزأ من نموذج التشغيل.
«طيران الرياض» نموذجاً لدمج الذكاء الاصطناعي
أشار محمد علي إلى «طيران الرياض» كنموذج لشركة طيران تُبنى بالذكاء الاصطناعي منذ اليوم الأول، مستفيدة من عدم وجود أنظمة قديمة تعيقها. لم يبدأ عمل «آي بي إم» مع طيران الرياض بالاستخدامات الموجهة للعملاء، بل بالعمليات المالية والداخلية لتعزيز الكفاءة، مما يتيح توجيه موارد أكبر نحو خدمة العملاء وتجربتهم لاحقاً.
تخطط «طيران الرياض» لاستخدام وكلاء الذكاء الاصطناعي على طول رحلة العميل، من شراء التذكرة وحتى الصعود إلى الطائرة. وهذا ما يميزها عن أنظمة الطيران التقليدية القائمة على هياكل قديمة، حيث تتاح لها فرصة بناء نموذج رقمي مختلف تماماً. لخص علي رؤيته للمشروع بقوله: «إنه يبني تجربة تجارة إلكترونية لديها 200 طائرة».
التحول قبل التقنية: البشر يظلون في القلب
شدد علي على أن المسألة ليست في نشر الذكاء الاصطناعي بحد ذاته، بل في تغيير طريقة عمل الشركات. وأن أصعب حوارات اليوم لا تتعلق بقدرات الذكاء الاصطناعي، بل بكيفية إدارة التغيير في نموذج التشغيل. وأشار إلى أن 30% من التحدي تقني، و70% يتعلق بتبني التغيير وإدارة القوى العاملة.
أكد محمد علي أن الذكاء الاصطناعي سيغير سوق العمل بدلاً من إلغائه، وسينشئ مجموعة كاملة من الوظائف الجديدة. وسيتفوق «الذين يتبنون الذكاء الاصطناعي ويستخدمونه أداةً». كما أكد على أهمية وجود راعٍ رفيع المستوى داخل المؤسسة لإنجاح التغييرات واسعة النطاق.
الوكلاء تحت السيطرة: أهمية الحوكمة والأمن
تحدث مارك هيوز عن التحديات التي تواجه الشركات عند التوسع في استخدام حلول الذكاء الاصطناعي، حيث يصبح أكثر تعقيداً وحساسية مع كثرة الوكلاء المنتشرين في العمليات وصنع القرار. وأكد هيوز على ضرورة وجود الحوكمة الشاملة، بما في ذلك ضوابط التشفير والهوية والوصول والبيانات والمراقبة وقت التشغيل، للحفاظ على الذكاء الاصطناعي تحت السيطرة.
وأفاد هيوز أن سبب فشل العديد من مشاريع الذكاء الاصطناعي لا يكمن في النموذج نفسه، بل في ضعف الحوكمة وعدم الانضباط في النشر. وحذر من ظاهرة الذكاء الاصطناعي الظلّي، مؤكداً أن المؤسسات الناجحة هي تلك التي «تفكر بشكل أكثر منهجية في كيفية إدخال الذكاء الاصطناعي إلى الإنتاج وتبني الحوكمة حوله».
إدارة الوكلاء الرقميين والبيانات
أوضح هيوز أن المشكلة الأولى في التحكم تظهر عادةً في «الرؤية»، حيث تجد المؤسسات نفسها أمام وكلاء مختلفين من مزودين ومنصات متعددة دون رؤية موحدة لما يفعله كل منهم. وأشار إلى أن مديري المستقبل سيتعين عليهم إدارة العمال البشريين والرقميين على حد سواء، وهي «مهارة لا يوجد تخطيط لها اليوم».
تُعد البيانات محوراً أساسياً في طرح المسؤولين. فرغم جودة النماذج، إلا أن «خط أنابيب البيانات والسياق والعملية الذي يستفيد من النماذج» هو ما يصنع النتيجة، حسب محمد علي. وتعمل «آي بي إم» على تحسين ذلك من خلال أدوات مثل «Context Studio»، التي لا تكتفي بمتجهة البيانات، بل تبني طبقة من العلاقات تمكن الوكلاء من استهلاكها كسياق، مما يضمن عملهم بفعالية حتى مع البيانات غير المكتملة.
من جانبه، أكد هيوز على عدم إمكانية فصل حوكمة البيانات عن حوكمة الوكلاء. ففي القطاعات المنظمة، تُعتبر البيانات وسلوك الوكيل المحيط بها على حد سواء أمراً بالغ الأهمية. وأشار إلى أن التركيز يجب أن ينصب على وجود ضوابط قبل الإنتاج وأثناء التشغيل لمراقبة سلوك الوكلاء بعد دخولهم الخدمة الفعلية.
الأمن والمساءلة: تحديات الذكاء الاصطناعي
يرى هيوز أن الأمن لم يعد مجرد طبقة تُضاف بعد نشر الذكاء الاصطناعي، بل أصبح جزءاً لا يتجزأ من نموذج التشغيل، رغم أنه يوسع نطاق الهجوم بسبب زيادة عدد الأنظمة والوكلاء، متوقعاً نشر 1.5 مليار وكيل في البيئات المؤسسية بحلول عام 2028. ومع ذلك، يمنح الذكاء الاصطناعي المؤسسات فرصة لإدارة الأمن «بصورة أسرع وأكثر ذاتية»، مما يفرض إعادة تصميم منظومة الأمن نفسها.
شدد هيوز على أهمية المساءلة، فإذا تسببت قرارات الذكاء الاصطناعي في مخاطر، يجب أن تبقى المسؤولية واضحة. وأكد على أن الوكلاء الرقميين، مثل التطبيقات، يجب أن يكون لهم أصحاب محددون ومسؤولون عنهم، فالمسؤولية لا يمكن أن تختفي مع توسع الأتمتة. هذه المرحلة الجديدة تتطلب رؤية واضحة وحوكمة محكمة لتشغيل الذكاء الاصطناعي بفاعلية وأمان.




























