هواوي تطور نسخة “آمنة” من نموذج الذكاء الاصطناعي DeepSeek R1 متوافقة مع التوجّهات الصينية

طوّرت شركة هواوي نسخة معدّلة من نموذج الذكاء الاصطناعي DeepSeek R1 تحت اسم Deep Seek R‑1 Safe، تختلف عن النسخة الأصلية في أنها مصممة لتجنّب المواضيع السياسية الحساسة والالتزام بتوجيهات الحكومة الصينية، وفق ما نشره موقع “غيزمودو”.
النسخة الجديدة جاءت نتيجة تعاون بين هواوي وباحثين في جامعة تشجيانغ، من دون أن تشارك شركة “ديب سيك” في تطويرها. وقد استخدم المطورون نحو ألف شريحة ذكاء اصطناعي من سلسلة Huawei Ascend لتدريب وتشغيل النموذج، ما مكن هواوي من ضبط سلوكه بما يتوافق مع المعايير الصينية.
وتقول هواوي إن النسخة المعدّلة لم تفقد إلا 1% من أداء النموذج الأصلي، بينما اكتسبت قدرة أكبر على رفض المحادثات الضارة وخطاب الكراهية والمواضيع السياسية الحساسة.
سبق للحكومة الصينية أن طالبت شركات الذكاء الاصطناعي بأن تتوافق نماذجها مع “المفاهيم والقواعد العامة” للدولة، وأن تمتثل للقوانين المتعلقة بنوعية الخطاب وحساسية الموضوعات. ويظهر ذلك بوضوح في نموذج “ديب سيك آر‑1 سيف”، حيث يمتنع عن الدخول في نقاشات قد تُعد مسيئة أو مخالفة للإرشادات الرسمية.
ويشبه هذا ما يقدمه روبوت “إيرني” التابع لشركة بايدو، الذي لا يجيب عن أسئلة تتعلق بالوضع السياسي في الصين أو الحزب الشيوعي الحاكم. ومع ذلك، لاحظت هواوي أن معدل امتثال النموذج ينخفض إلى نحو 40% عندما تُطرح الأسئلة بصيغة تحدّ أو عبر أساليب الالتفاف، ما يدل على صعوبة السيطرة الكاملة على النماذج في مواجهة محاولات الالتفاف المتعمدة.
هذه الظاهرة ليست محصورة بالصين فقط، إذ يمكن استخدام طرق مماثلة لاختبار حدود نماذج الذكاء الاصطناعي حتى مع منصات غربية مثل “شات جي بي تي” و”جيميناي”. وتبرز تجربة هواوي التحدي بين الحفاظ على أداء النموذج من جهة، والالتزام بالقيود التنظيمية والسياسية من جهة أخرى.
ويبقى السؤال مطروحًا حول مدى قدرة الشركات على إيجاد توازن فعّال بين الأداء والامتثال، خصوصًا في بيئات تشدّد الرقابة على المحتوى السياسي والحساس.







