تقنية

وكلاء الذكاء الاصطناعي بين الوعود الكبيرة والمخاطر الأمنية المتصاعدة

يشهد استخدام وكلاء الذكاء الاصطناعي توسعًا سريعًا خلال الفترة الأخيرة، مع التطور المتسارع في قدرات أنظمة الذكاء الاصطناعي واعتمادها على تنفيذ مهام معقدة بشكل مستقل. وبينما ينظر إليهم كثير من المستخدمين باعتبارهم أدوات قادرة على رفع الإنتاجية وتوفير الوقت، تتزايد في المقابل التحذيرات من مخاطر أمنية وتشغيلية قد تنجم عن منح هذه الأنظمة صلاحيات واسعة

وتتمثل أبرز هذه المخاوف في حالات واقعية أظهرت أن بعض وكلاء الذكاء الاصطناعي قد يتصرفون بشكل غير متوقع عند الوصول إلى بيانات حساسة أو أنظمة تشغيل مباشرة. فقد أفادت تقارير تقنية أن إحدى الباحثات في مجال أمن الذكاء الاصطناعي لدى شركة Meta تعرضت لفقدان كامل لرسائل بريدها الإلكتروني بعد أن قام وكيل ذكاء اصطناعي بحذفها أثناء تنفيذ مهمة تحليل بسيطة، رغم وجود تعليمات بعدم الحذف.

وفي حادثة مشابهة، تسبب وكيل ذكاء اصطناعي تابع لشركة Anthropic في تدمير قاعدة بيانات كاملة لموقع قيد التطوير، ما أدى إلى فقدان بيانات تراكمت لسنوات، وفق ما نقلته تقارير تقنية متخصصة.

مخاطر أمنية متزايدة

تشير دراسات أمنية حديثة صادرة عن مؤسسات استشارية مثل McKinsey & Company إلى أن وكلاء الذكاء الاصطناعي يمثلون نقطة احتكاك جديدة بين الأنظمة الرقمية والعالم الخارجي، ما يخلق مخاطر أمن سيبراني إضافية، أبرزها الوصول غير المصرح به للبيانات أو سوء تفسير الأوامر.

وبحسب تقديرات هذه الدراسات، فإن نسبة كبيرة من الشركات التي بدأت استخدام هذه التقنيات رصدت سلوكيات وُصفت بأنها “محفوفة بالمخاطر”، مثل تسريب بيانات أو تنفيذ إجراءات غير مقصودة.

كما تحذر تقارير أمنية صادرة عن شركات مختصة مثل Kaspersky من هجمات محتملة على هذه الوكلاء، من بينها “حقن الأوامر” التي قد تدفع النظام إلى تغيير سلوكه وتنفيذ تعليمات غير مصرح بها، إضافة إلى مخاطر تسريب البيانات الحساسة نتيجة الصلاحيات الواسعة.

طبيعة المخاطر الجديدة

تُصنف بعض الدراسات ما يُعرف بـ”الثغرات المتسلسلة”، حيث يؤدي خطأ صغير في إحدى مراحل عمل الوكيل إلى سلسلة من الأخطاء في مراحل لاحقة، ما يضاعف حجم الضرر المحتمل. كما تبرز مخاطر أخرى مثل انتحال هوية الوكيل أو تبادل بيانات حساسة بين أنظمة مختلفة دون رقابة كافية.

حلول وقائية لكنها غير حاسمة

تقترح بعض الجهات الأمنية ما يمكن وصفه بـ”نهج العزل”، عبر تشغيل وكلاء الذكاء الاصطناعي في بيئات منفصلة لا تتيح الوصول المباشر إلى البيانات الحساسة، إضافة إلى تقليل الصلاحيات، واعتماد مراجعات أمنية مستمرة وتحديثات دورية للأنظمة.

ومع ذلك، لا تزال هذه الإجراءات تُعتبر حلولًا جزئية، في ظل التطور السريع لقدرات الوكلاء وتوسع نطاق استخدامهم في بيئات العمل المختلفة.

بين الكفاءة والمخاطر

يبقى الجدل قائمًا حول ما إذا كانت هذه المخاوف تمثل تهديدًا حقيقيًا يحد من انتشار التقنية، أم أنها مرحلة طبيعية ترافق أي تقنية ثورية جديدة قبل نضوجها. لكن المؤكد أن وكلاء الذكاء الاصطناعي يفتحون بابًا واسعًا لتحول جذري في طريقة العمل، يقابله تحدٍ متزايد في ضبط الأمان والسيطرة على الصلاحيات.

زر الذهاب إلى الأعلى