“روبلوكس” تعتمد منظومة ذكاء اصطناعي متقدمة لمراقبة المحتوى داخل اللعبة

انتقلت لعبة روبلوكس الأمريكية في تحديثها الأمني الأخير، الذي أُطلق نهاية مارس/آذار، إلى نظام جديد يعتمد على الذكاء الاصطناعي متعدد الوسائط لمراقبة المحتوى داخل اللعبة، وفق ما ذكره موقع ديجيتال تريندز.
ويأتي هذا التطور في إطار معالجة المشكلات المتكررة التي واجهتها اللعبة، خاصة فيما يتعلق بالمحتوى غير المناسب للأطفال، والذي تسبب سابقاً في أزمات قانونية وانتقادات واسعة، بل وحظرها في بعض الدول.
نظام رقابي شامل يعتمد على الذكاء الاصطناعي
تعتمد المنظومة الجديدة على تحليل شامل لكل ما يحدث داخل بيئة اللعبة، بما في ذلك النصوص، وأشكال الشخصيات، والعناصر ثلاثية الأبعاد، بهدف تحديد مدى توافق المحتوى مع معايير السلامة المعتمدة.
ويختلف هذا النظام عن آليات الرقابة التقليدية التي كانت تفحص كل عنصر بشكل منفصل، ما كان يسمح أحياناً بمرور محتوى غير مناسب دون اكتشافه.
وبحسب ما أعلنته الشركة، فإن النظام الجديد قادر على تقييم المشاهد بشكل متكامل واتخاذ قرارات فورية بشأن حذف أو حظر المحتوى المخالف.
إجراءات صارمة ضد المخالفات
وأوضحت الشركة أن النظام الجديد يقوم بإغلاق أي خادم أو تجربة داخل اللعبة في حال اكتشاف محتوى مخالف، حيث يتم تعطيل نحو 5 آلاف خادم يومياً منذ بدء تطبيق النظام.
وتخطط الشركة لتطوير النظام مستقبلاً بحيث يشمل أيضاً إمكانية حظر المستخدمين الذين يكررون انتهاك القواعد بشكل دائم.
كما يتيح النظام للاعبين الاطلاع على سجل المخالفات الخاص بهم عبر لوحة التحكم، إلى جانب تمكين صناع المحتوى داخل اللعبة من مراقبة النشاطات بشكل أكثر تفصيلاً.
تعاون وشهادات اعتماد جديدة
وفي إطار تعزيز بيئة اللعب الآمنة، تعمل روبلوكس بالتعاون مع شركتي كييورد ستوديوز ورايوت جيمز على تطوير نظام شهادة معتمد لمديري المجتمعات داخل الألعاب الجماعية المشابهة.
ويهدف هذا التوجه إلى رفع معايير الإشراف والمحتوى داخل المنصات التفاعلية.
ويرى تقرير موقع ديجيتال تريندز أن هذا التحديث يمثل أحد أهم التحولات التي أجرتها الشركة في إطار معالجة أزمة المحتوى المخالف، والتي لطالما أثارت جدلاً واسعاً بين المستخدمين والجهات الرقابية.







