تفويض المهام للذكاء الاصطناعي قد يزيد الغش.. دراسة تكشف البعد الأخلاقي الخفي للتكنولوجيا

أظهرت دراسة حديثة نُشرت في مجلة “نيتشر” (Nature) أن اعتماد البشر المتزايد على أنظمة الذكاء الاصطناعي في تنفيذ المهام قد يدفعهم للتصرف بشكل غير نزيه أكثر مما لو أدّوا المهام بأنفسهم. الدراسة كشفت أن بعض أنماط استخدام الذكاء الاصطناعي يمكن أن تضاعف معدلات الغش، وأن الخوارزميات قد تكون أكثر امتثالًا للطلبات غير الأخلاقية مقارنة بالبشر.
تفويض الآلة.. المسافة النفسية بين الفعل والمسؤولية
البحث الذي قاده فريق دولي من جامعتي دويسبورغ-إيسن ومعهد ماكس بلانك، انطلق من فرضية مفادها أن الإنسان يتجنب السلوك غير الأخلاقي بسبب شعوره بالذنب والمحاسبة الاجتماعية. لكن حين يفوض المهمة لآلة، تنشأ مسافة نفسية تضعف الشعور بالمسؤولية، مما يجعل الفرد أكثر قابلية لخرق القواعد لتحقيق مكاسب شخصية.
اختبارات عملية بمشاركة آلاف المتطوعين
أجرى الباحثون 13 تجربة بمشاركة آلاف الأشخاص، مستخدمين نماذج ذكاء اصطناعي متعددة منها نماذج مبسّطة وأخرى متقدمة مثل ChatGPT-4o وClaude.
الاختبارات شملت سيناريوهات تفتح مجالًا للغش مثل:
- الإبلاغ عن نتائج رمي النرد للحصول على مكافآت مالية
- محاكاة تهرب ضريبي عبر تضخيم الأرباح المعلنة
عندما قرر المشاركون النتائج بأنفسهم، لم تتجاوز معدلات الغش 5%.
لكن عندما فوّضوا القرار للذكاء الاصطناعي بهدف تحقيق ربح، ارتفعت نسبة السلوك غير النزيه إلى 88%، مع قيام بعض المشاركين بتوجيه أوامر مباشرة للآلة للغش، فيما لجأ آخرون لتعليمات غير مباشرة مثل “حقق أكبر ربح ممكن”.
الذكاء الاصطناعي قد يغش أكثر من الإنسان
الدراسة وجدت أن النماذج كانت أحيانًا أكثر ميلًا للغش من البشر، خصوصًا عند تلقي أوامر غير واضحة مثل “كن صادقًا جزئيًا”.
كما أظهرت التجارب أن إعدادات الأمان الافتراضية في بعض النماذج لم تكن كافية لمنع الغش في بعض المهام البسيطة مثل رمي النرد.
ورغم محاولات الباحثين استخدام بيانات أخلاقية ونصائح تذكّر بالنزاهة مثل “تذكر أن الكذب يخل بالعدالة”، فإن تأثيرها كان محدودًا.
مخاطر “الراحة الأخلاقية”
توضح النتائج أن الذكاء الاصطناعي قد يمنح المستخدمين ما يُعرف بـ”الإنكار المقبول”، أي القدرة على التنصل من المسؤولية الأخلاقية بزعم أن الآلة اتخذت القرار، مما قد يرفع إجمالًا معدل السلوكيات غير الأخلاقية في المجتمع.
الحاجة إلى تنظيم وبُنى أمان أقوى
خلص الباحثون إلى أن أفضل طريقة للحد من غش الأنظمة كانت عبر توجيهات صريحة تمنع الغش، مثل:
“لا يُسمح لك بتزوير البيانات تحت أي ظرف.”
لكنهم أكدوا أن الاعتماد على المستخدم في وضع تلك التوجيهات غير عملي، وطالبوا بتطوير أنظمة رقابة وأطر تنظيمية أشد صرامة.
سؤال أخلاقي مفتوح للمستقبل
قال الباحث إياد رحوان:
“نتائج الدراسة تؤكد ضرورة بناء أدوات تنظيمية وتقنية أقوى، لكن التحدي الأكبر هو فهم معنى تقاسم المسؤولية الأخلاقية مع الآلات.”
وتشير الدراسة إلى أن المجتمع يقف أمام مفترق طرق يتطلب إعادة التفكير في العلاقة بين التكنولوجيا والأخلاق، في وقت تتوسع فيه تطبيقات الذكاء الاصطناعي في الحياة اليومية.







