بحث يحذر: محادثاتك مع الذكاء الاصطناعي قد لا تكون بالخصوصية التي تعتقدها

في مؤتمر «IBM Think 2026» ببوسطن، كشفت شركة IBM عن رؤيتها للمرحلة التالية من الذكاء الاصطناعي المؤسسي، مؤكدة أن التركيز لن يكون على امتلاك أكبر عدد من النماذج، بل على القدرة على تشغيل الذكاء الاصطناعي بفعالية ضمن العمليات التجارية. تشير هذه الرؤية إلى تحول كبير من مرحلة التجارب الأولية إلى مرحلة التطبيق العملي، التي تتطلب إعادة هيكلة شاملة لسير العمل.

أوضح محمد علي، نائب الرئيس الأول ورئيس «IBM Consulting»، ومارك هيوز، الشريك الإداري العالمي لخدمات الأمن السيبراني في «IBM Consulting»، في حديثين منفصلين مع «الشرق الأوسط»، أن التحدي يكمن الآن في إعادة تصميم سير العمل، وتنظيم البيانات والسياق، وإدارة القوى العاملة الرقمية، إضافة إلى بناء الحوكمة والأمن اللازمين لضمان بقاء الذكاء الاصطناعي تحت السيطرة وتحقيق تأثير ملموس في العمليات الفعلية.

الذكاء الاصطناعي المؤسسي: ما بعد التجارب، نحو التشغيل الفعلي

يطرح محمد علي فكرة مفادها أن العديد من المؤسسات لم تعد تواجه تحديات بسبب نقص الأدوات، بل بسبب عدم تغيير جذري في طريقة تنظيم العمل الداخلي. ويرى أن التحدي الحقيقي يكمن في كيفية إعادة هندسة العمليات بفعالية لتحقيق قيمة أفضل للأعمال. وبينما كانت المرحلة الأولى من الذكاء الاصطناعي تركز على مهام بسيطة ومحددة، تتطلب المرحلة الحالية دمج هذه القدرات بطريقة آمنة ومحكومة لتحويلها إلى قيمة أعمال حقيقية.

تعزو IBM فشل العديد من جهود الذكاء الاصطناعي المؤسسي في تجاوز مرحلة التجارب إلى طموحات واسعة للغاية في البداية. ويُنصح ببدء المؤسسات بحالات استخدام أضيق وأكثر ارتباطًا بالقيمة، ودمجها لاحقًا في سير عمل أوسع. كما أن مشكلة عدم التفكير المنهجي في الحوكمة عند نقل حلول الذكاء الاصطناعي إلى الإنتاج، وظاهرة «الذكاء الاصطناعي الظلّي»، حيث تتبنى بعض الأقسام أدوات بشكل منفصل، تؤدي إلى تدمير القيمة بدلاً من خلقها.

نموذج تشغيل جديد يقوده الذكاء الاصطناعي

ترتكز رسالة IBM هذا العام على مفهوم “نموذج تشغيل الذكاء الاصطناعي”. الفكرة ليست في مجرد إضافة المزيد من تقنيات الذكاء الاصطناعي، بل في دمجها بشكل أساسي في كيفية عمل المؤسسة. يشير محمد علي إلى أن نضج الذكاء الاصطناعي يسمح الآن بربط حالات الاستخدام الفردية بطريقة عملية، مما يمكن المؤسسات من إعادة هندسة طريقة إنجاز العمل على مستوى تأسيسي. هذا التحول يمثل الفارق الحقيقي بين الشركات التي لا تزال تختبر الأدوات وتلك التي حوّلت الذكاء الاصطناعي إلى قدرة تشغيلية.

قدم محمد علي مثالاً داخلياً من IBM نفسها، حيث أشارت الشركة إلى أنها نشرت الذكاء الاصطناعي على نطاق واسع داخل أعمالها على مدار ثلاث سنوات. من خلال تفكيك المؤسسة إلى 490 سير عمل، واختيار أهم 70 منها، وبناء 220 عاملاً رقمياً، أعادت IBM تصميم مجالات مثل الموارد البشرية والمالية وسلسلة الإمداد لتصبح “بشرية + رقمية”. وأسفر هذا عن توفير ما يقرب من 4.5 مليار دولار بحلول عام 2025، وهو ما يؤكد أن هذا لا يحدث إلا عندما يصبح الذكاء الاصطناعي جزءًا لا يتجزأ من نموذج التشغيل.

«طيران الرياض» نموذجًا للدمج المبكر للذكاء الاصطناعي

سلط محمد علي الضوء على «طيران الرياض» كنموذج رائد لشركة طيران تُبنى مع دمج الذكاء الاصطناعي في نموذج التشغيل منذ اليوم الأول. ميزة «طيران الرياض» لا تقتصر على كونها شركة جديدة، بل في قدرتها على البناء دون أعباء الأنظمة القديمة التي تقيد الشركات القائمة. بدأت IBM لديها بالتركيز على العمليات المالية والداخلية، بهدف إعادة تصميم هذه المسارات لتعزيز الكفاءة، مما يتيح توجيه المزيد من الموارد نحو خدمة العملاء وتجربتهم.

يوضح هذا المثال أن القيمة الحقيقية تكمن في تغيير طريقة العمل، لا مجرد نشر التقنية. يرى علي أن النقاش الأصعب مع العملاء حاليًا يدور حول كيفية تغيير نموذج التشغيل وإدارة هذا التغيير. ووفقًا لأحد العملاء، فإن 30% من التحدي تقني، و70% يتعلق بتبني التغيير وإعادة تصميم سير العمل.

الأمن والمساءلة في بيئة الذكاء الاصطناعي المتزايدة

تكمن رؤية مارك هيوز في أن الذكاء الاصطناعي المؤسسي يصبح أكثر صعوبة وحساسية عندما ينتقل من استخدامات محدودة إلى عدد كبير من الوكلاء المدمجين في سير العمل واتخاذ القرار. ويؤكد أن القضية لم تعد تتعلق بما إذا كانت أداة الذكاء الاصطناعي تعمل، بل بمدى حوكمة نشرها. يجب أن تكون الحوكمة موجودة لتشمل ضوابط التشفير والهوية والوصول والصلاحيات والبيانات والمراقبة أثناء التشغيل.

يشدد هيوز على أن الأمن لم يعد مجرد طبقة تُضاف بعد نشر الذكاء الاصطناعي، بل هو جزء لا يتجزأ من نموذج التشغيل نفسه. الذكاء الاصطناعي لا يجعل الأمن “أصعب” فحسب، بل يجعله مختلفًا، حيث يوسع سطح الهجوم بسبب تزايد عدد الأنظمة والوكلاء. ومع ذلك، فهو يمنح المؤسسات أيضًا فرصة لإدارة الأمن بشكل أسرع وأكثر ذاتية. وتظل المساءلة نقطة حاسمة، حيث يجب أن تقع مسؤولية القرارات المولّدة بواسطة الذكاء الاصطناعي على عاتق مالكين واضحين للوكلاء، مع خطة محددة للجهة المسؤولة عنهم.

إدارة الوكلاء الرقميين وأهمية البيانات

تزداد أهمية إدارة الوكلاء الرقميين، فالشركات تنتقل من عدد محدود من المساعدين إلى أعداد هائلة من الوكلاء داخل سير عمل حقيقي. يوضح هيوز أن المشكلة الأولى في التحكم تظهر عادة في “الرؤية”، حيث قد تجد المؤسسات نفسها أمام وكلاء مختلفين من مزودين ومنصات متعددة دون رؤية موحدة لما يفعله كل هؤلاء الوكلاء. يتطلب مدير المستقبل معرفة كيفية إدارة كل من العمال البشريين والرقميين. وتعد البيانات أساسًا جوهريًا لهذا التحول، فمحمد علي يؤكد أن النماذج جيدة جدًا، ولكن ما يصنع النتيجة هو خط أنابيب البيانات والسياق والعملية الذي يستفيد من هذه النماذج.

بالنسبة لمارك هيوز، لا يمكن فصل حوكمة البيانات عن حوكمة الوكلاء. ففي القطاعات المنظمة، تعتبر البيانات نفسها وسلوك الوكيل حولها مهمين. تؤكد IBM على أهمية وجود ضوابط ما قبل الإنتاج وضوابط وقت التشغيل لمراقبة سلوك الوكلاء بعد دخولهم الخدمة. إن الخطر لا يكمن في الذكاء الاصطناعي بحد ذاته، بل في نشره دون حوكمة واضحة ورؤية موحدة وضبط للصلاحيات والبيانات. في النهاية، لم تعد قيمة الذكاء الاصطناعي المؤسسي تُقاس بعدد المبادرات أو سرعة إطلاق التجارب، بل بقدرته على الاندماج في العمليات الفعلية والعمل بانتظام وتحقيق تأثير قابل للقياس. يبدو أن المرحلة التالية قد بدأت بالفعل، وعلى الشركات الاستعداد لتبني هذا التحول الشامل.