وقد صممت تقنيات الذكاء الاصطناعي الوكيل للحماية الإلكترونية لدعم التفاعلات الموثوقة والآمنة مع الذكاء الاصطناعي، ويودي هؤلاء الوكلاء دور المساعدين الرقميين المعززين بالذكاء الاصطناعي ويدعمون المستخدمين في مهام مراجعة المحتوى والرصد والتحليل وكوكلاء نصف مستقلين أو مستقلين بالكامل وغير ذلك، ويتمتعون بالقدرة على وضع خطط العمل وتنفيذها، وإعادة توجيه أو حجب الإجراءات بما يتوافق مع الأهداف الموضوعة مسبقاً للوكلاء.
الحواجز التنظيمية ضرورية مع استمرار نمو استخدام الذكاء الاصطناعي الوكيل
أظهر استطلاع أُجري خلال ندوة عبر الإنترنت نظمتها شركة جارتنر في 19 مايو 2025 وشملت 147 من الرؤساء التنفيذيين لشؤون المعلومات وقادة تكنولوجيا المعلومات، أن 24% من المشاركين أفادوا بأنهم قاموا بالفعل بنشر عدد قليل من وكلاء الذكاء الاصطناعي (أقل من 12 وكيلاً)، في حين بيّن 4% بأنهم قاموا بنشر أكثر من 12 وكيلاً.
وأظهرت الإجابة على نفس السؤال أن 50% من المشاركين قالوا بأنهم لا يزالون في مرحلة بحث وتجريب هذه التكنولوجيا، بينما قال 17% بأنهم لم يباشروا بعد لكنهم يخططون لاعتماد هذه التكنولوجيا بحلول نهاية عام 2026 كحد أقصى. وتعتبر أدوات التحكم الآلية المتعلقة بالثقة والمخاطر والأمن ضرورية للحفاظ على توافق وأمن الوكلاء ما يزيد من الحاجة إلى وكلاء الحماية وأهميتهم.
وقالت أفيفا ليتان، نائب الرئيس لشؤون التحليلات لدى جارتنر: "سيؤدي الذكاء الاصطناعي الوكيل إلى نتائج غير مرغوب فيها إذا لم يتم ضبطه بالحواجز التنظيمية المناسبة. يوظف وكلاء الحماية مجموعة واسعة من قدرات الذكاء الاصطناعي الوكيل والتقييمات القائمة على الذكاء الاصطناعي من أجل الإشراف على مجموعة القدرات الكاملة للوكلاء وإدارتها، مع القيام في ذات الوقت بضمان تحقيق توازن بين اتخاذ القرارات أثناء التشغيل وإدارة المخاطر".
ازدياد المخاطر طرداً مع ازدياد قوة الوكلاء ونطاق انتشارهم
أشار 52% من أصل 125 مشاركاً في نفس الاستطلاع خلال الندوة على شبكة الإنترنت، إلى أن وكلاء الذكاء الاصطناعي لديهم يركزون أو سيركزون بشكل أساسي على حالات استخدام تتعلق بمهام الإدارة الداخلية مثل تكنولوجيا المعلومات والموارد البشرية والمحاسبة، في حين يركز 23% على المهام الخاصة بالتعامل مع العملاء الخارجيين.
ومع تنامي حالات استخدام وكلاء الذكاء الاصطناعي، تظهر عدة فئات من التهديدات التي قد تؤثر عليهم، بما في ذلك التلاعب بالمدخلات وتسميم البيانات، حيث يعتمد الوكلاء على بيانات تم التلاعب بها أو تفسيرها بشكل خاطئ. ومن أمثلة ذلك:
اختطاف بيانات الاعتماد وإساءة استخدامها ما يؤدي إلى سيطرة غير مصرح بها وسرقة البيانات.
تفاعل الوكلاء مع مواقع إلكترونية أو مصادر مزيفة أو إجرامية ما قد يؤدي إلى اتخاذ خطوات مسممة.
انحراف الوكلاء وظهور سلوك غير مقصود نتيجة عيوب داخلية أو محفزات خارجية ما قد يسبب أضراراً في السمعة وانقطاعات في العمليات.
وأضافت ليتان: "يحتاج تسارع وتنامي استقلالية وكلاء الذكاء الاصطناعي إلى التحول إلى ما هو أبعد من مجرد الإشراف البشري التقليدي. ومع انتقال المؤسسات نحو الأنظمة متعددة الوكلاء القادرة على التواصل بسرعة فائقة، فإن العنصر البشري لن يكون قادراً على مواكبة احتمالات الأخطاء والأنشطة الخبيثة. ويؤكد التطور المستمر الذي تشهده التهديدات على الحاجة الملحة إلى وكلاء الحماية الذين يوفرون إشرافاً وتحكماً وأماناً آلياً لتطبيقات ووكلاء الذكاء الاصطناعي".
ويتعين على الرؤساء التنفيذيين لشؤون المعلومات وقادة تكنولوجيا المعلومات التركيز على ثلاثة أنواع أساسية من استخدامات وكلاء الحماية للمساهمة في تأمين التفاعلات مع الذكاء الاصطناعي:
المراجعون: تحديد ومراجعة المخرجات والمحتوى الذي ينتجه الذكاء الاصطناعي للتحقق من الدقة والاستخدام المقبول.
المراقبون: مراقبة وتتبع إجراءات الذكاء الاصطناعي والوكلاء لأغراض المتابعة من قبل العنصر البشري أو عبر أنظمة الذكاء الاصطناعي أخرى.
الحرّاس: تعديل أو حظر إجراءات وصلاحيات الذكاء الاصطناعي والوكلاء باستخدام إجراءات آلية أثناء العمليات.
وسيتولى وكلاء الحماية إدارة التفاعلات والانحرافات بغض النظر عن نوع الاستخدام، الأمر الذي يمثل ركيزة أساسية في عملية دمج هؤلاء الوكلاء، وتتوقع جارتنر أن يعتمد 70% من تطبيقات الذكاء الاصطناعي لأنظمة متعددة الوكلاء بحلول عام 2028.
يمكن لعملاء جارتنر قراءة المزيد في تقرير "حراس المستقبل: كيف يمكن للرؤساء التنفيذيين لشؤون المعلومات الاستفادة من وكلاء الحماية لبناء ذكاء اصطناعي موثوق وآمن". كما يمكن الاطلاع على تفاصيل إضافية في ندوة جارتنر على الإنترنت التي انعقدت تحت عنوان: "الرؤساء التنفيذيين لشؤون المعلومات، عليكم الاستفادة من وكلاء الحماية لبناء ذكاء اصطناعي موثوق وآمن".