ممارسات تمكن مؤسسات الشرق الأوسط من تعزيز رحلتها نحو تبني الذكاء الاصطناعي

قال محمد أبوخاطر، نائب الرئيس الإقليمي للمبيعات في شركة F5 بمنطقة الشرق الأوسط وتركيا وأفريقيا، إن لدى الشركة إمكانات تساعد المؤسسات بالمنطقة على الحد من المخاطر التي تصاحب نشر تقنيات الذكاء الاصطناعي في عملها.

وتشير البيانات التي تستند إلى دراسات بحثية متخصصة إلى أن وتيرة اعتماد الشركات للذكاء الاصطناعي التوليدي. تتصاعد على نحو لافت بالرغم من وجود فجوات تنظيمية تستوجب التريث وإعادة التقييم.

ووفقًا لدراسة “وكلاء الذكاء الاصطناعي” التي أجرتها شركة برايس ووترهاوس كوبر (PWC) في مايو 2025. فقد تبنت 79% من الشركات حلول الذكاء الاصطناعي، في حين 2% فقط منها لا ترى أي توجه نحو الاعتماد على الذكاء الاصطناعي الوكيل.

وبغض النظر عما إذا كانت هذه النماذج تظهر سمات متقدمة بالفعل مرتبطة بتطبيقات الذكاء الاصطناعي الوكيل. إلا أن مستوى الاعتماد يبقى مرتفع للغاية. مع اتجاه شبه عام بين المؤسسات إلى زيادة استثماراتها فيه خلال العام المقبل.

وبالمقارنة مع نتائج أبحاث F5 الخاصة التي تعتمد على مؤشر جاهزية الذكاء الاصطناعي لقياس القدرة التشغيلية على توسيع نطاق الأنظمة المدعومة بالذكاء الاصطناعي وتأمينها وضمان استمراريتها. يتبين أن 2% فقط من المؤسسات تتمتع بجاهزية عالية تؤهلها من التعامل مع التحديات الجوهرية المرتبطة في تصميم هذه الأنظمة ونشرها وتشغيلها بكفاءة.

ومع ذلك، تظهر أبحاث  EY أن فرق تكنولوجيا المعلومات والأمن ليست أمامها بدائل حقيقية. إذ يرى معظم قادة الأعمال أن اعتماده خلال هذا العام أصبح ضرورة لتحقيق تقدم تنافسي بحلول الوقت نفسه من العام المقبل.

أما المؤسسات التي تتريث بما يكفي لمعالجة فجوات الأمن والحَوْكمة معالجة منهجية. فستكون في عام 2026 في موقع أكثر متانة وأقل تعرضًا للمخاطر مقارنة بتلك التي تهمل هذه الجوانب الحاسمة.

3 ممارسات للحد من مخاطر الانتقال إلى الذكاء الاصطناعي التوليدي

تأمين النماذج

تستلزم كل تقنية جديدة مستوى متقدمًا من الحماية، ويعتمد الذكاء الاصطناعي التوليدي في جوهره على نموذج أو أكثر من نماذج اللغة الكبيرة. ولا يكفي التعويل على مطوري هذه النماذج لتحسين الدقة، والحد من الهلوسة، ومنع محاولات التحايل.

فالمؤسسات مطالبة بالاستثمار في خدمات مخصصة للنماذج وعمليات التوجيه. قادرة على رصد السلوكيات غير المرغوب فيها وإيقافها بصورة مستقلة.

بالإضافة إلى ذلك، وبما أن كل مؤسسة تستخدم نموذجًا لغويًا كبيرًا تعتمد عمليًا على أكثر من نموذج واحد. يصبح عزل التطبيقات عن استدعاءات واجهة برمجة التطبيقات الخاصة بالاستدلال أمرًا ضروريًا لضمان تلبية متطلبات التوافر. ومسارات التوجيه، وقابلية التوسع، وإدارة التكلفة لتلك التطبيقات.

تأمين البيانات

قد تكون البيانات التي تزود بها المؤسسة نماذج الذكاء الاصطناعي التوليدي بيانات جديدة أو بيانات موجودة لديها مسبقًا. لكن في جميع الحالات يجب التعامل معها باعتبارها أصول مهمة تحتاج إلى حماية صارمة.

والحماية هنا لا تقتصر على تأمين البيانات في أماكن تخزينها أو تشفيرها أثناء انتقالها عبر الشبكات. بل تشمل أيضًا القدرة على اكتشاف أي بيانات داخل بيئة المؤسسة، مهما كانت طريقة استخدامها. وحمايتها حتى عندما تشارك مع خدمات خارجية معتمدة أو تستخدم من قبل جهات خارجية.

تأمين الوكلاء

يمثل وكلاء الذكاء الاصطناعي تحولا جوهريًا في طريقة عمل الأنظمة، إذ يعتمدون على نماذج اللغة الكبيرة لاتخاذ قرارات تحدد ما يجب تنفيذه من إجراءات لتحقيق هدف يحددونه ذاتيًا.

وللقيام بذلك، يحتاج الوكيل إلى صلاحيات تمكنه من الوصول إلى الموارد، وإنشاء المعلومات وتعديلها وحذفها. ولهذا، فإن تشغيل الوكلاء يستوجب وجود آلية رقابية خارجية تراقب أداءهم عن قرب وتقيم سلوكهم بفاعلية.

ولقد برز نهجان رئيسيان يستحقان متابعة دقيقة مع تطورهما خلال الأشهر المقبلة: أطر الحماية التنظيمية لوكلاء الذكاء الاصطناعي (مثل MCP-Universe)، وأطر النموذج المحكم LLM-as-a-Judge (مثل Microsoft LLM-as-a-Judge Framework).

يعمل النهج الأول على تحديد “الحقيقة الأساسية” من خلال عمليات دقيقة للغاية تعتمد على مهام محددة. يتم من خلالها مقارنة نتائج الإجراءات التي ينفّذها الوكيل مع إجراءات أخرى يتم جلبها مسبقًا بواسطة برامج موجهة بشكل واضح. وتتمثل قوته في اتساع نطاق الشيفرات النموذجية المتاحة للتحقق من مختلف المعطيات والحقائق.

أما النهج الثاني فيعتمد على نموذج لغوي آخر، وأحيانًا عدة نماذج، لتحليل سلوك الوكيل بعد نشره وتقييم مدى جودة وملاءمة نتائجه وفق المعايير التي تضعها المؤسسة.

ويواصل هذا الأسلوب تطوره بسرعة، تمامًا كنهج أطر الحماية، وكلاهما يخضع لسيطرة المؤسسة بشكل كامل. كما يمكن دعم أي منهما بآليات تدخل بشري عند الحاجة لتعزيز الرقابة والدقة.

تساعد هذه الممارسات الثلاث في إحكام السيطرة على النماذج والبيانات والوكلاء، سد الفجوات المرتبطة بالأمن السيبراني والحوكمة.

ومن دون ذلك، تبقى المؤسسات عرضة لأنماط جديدة من المخاطر التي تصاحب الذكاء الاصطناعي التوليدي والأنظمة الذكاء الاصطناعي الوكيل.

الرابط المختصر :