مايكروسوفت تحدّث شروط استخدام “كوبايلوت” وتصفه بأداة “ترفيهية” وسط جدل قانوني متصاعد

أثارت التحديثات الأخيرة في بنود الخدمة الخاصة بمساعد الذكاء الاصطناعي “كوبايلوت” (Copilot) التابع لشركة مايكروسوفت الأمريكية موجة من الجدل في الأوساط التقنية والقانونية، بعد إدخال تغييرات تعيد تعريف طبيعة استخدام الأداة وحدود المسؤولية المرتبطة بها.
وبحسب تقرير نشره موقع “بي سي ماغ” (PCMag)، فإن مايكروسوفت أضافت نصوصا صريحة تؤكد أن كوبايلوت “مخصص لأغراض الترفيه فقط”، مع تحذير المستخدمين من أنه “قد يرتكب أخطاء ولا ينبغي الاعتماد عليه في تقديم نصائح مهمة”، إضافة إلى تحميل المستخدم كامل المسؤولية عن نتائج استخدامه.
ويشير التقرير إلى أن هذا الإخلاء القانوني يعكس تحولا لافتا في طريقة تعامل الشركات مع أدوات الذكاء الاصطناعي، حيث يتم تقليص الالتزام القانوني تجاه مخرجات الأنظمة التوليدية، رغم الترويج لها كأدوات إنتاجية متقدمة.
تحوّل قانوني لتقليل المسؤولية
تثير هذه التحديثات مخاوف متزايدة من أن مايكروسوفت تسعى إلى تقليص مسؤوليتها القانونية عن أي أخطاء قد تنتج عن كوبايلوت، بما في ذلك أخطاء محتملة في المحتوى أو البرمجة أو حتى انتهاكات حقوق الملكية الفكرية.
وتذهب بعض التحليلات التقنية إلى أن تصنيف المخرجات على أنها “ترفيهية” قد يضعف أي مطالبات قانونية مستقبلية ضد الشركة، خصوصا في حالات الاستخدام المهني مثل صياغة العقود أو تطوير البرمجيات.
كما حذرت تقارير من أن مستخدمي النسخ المجانية قد لا يتمتعون بأي حماية قانونية فعلية عند الاعتماد على الأداة في أعمال حساسة أو عالية المخاطر.
فصل بين الاستخدام الفردي والمؤسسي
وتوضح تقارير تقنية من بينها “ذا ريجستر” (The Register) و”تومز هاردوير” (Tom’s Hardware) أن هذا البند الجديد يطبق أساسا على النسخ الموجهة للأفراد، بينما تخضع النسخ المؤسسية ضمن حزمة مايكروسوفت 365 لاتفاقيات مختلفة تتضمن التزامات قانونية أشمل.
ويرى محللون أن هذا الفصل قد يشكل دافعا غير مباشر لتشجيع المستخدمين على التحول نحو الاشتراكات المدفوعة، خاصة في البيئات المهنية التي تتطلب مستويات أعلى من الأمان والموثوقية.
سياق أوسع: القلق من “هلوسات الذكاء الاصطناعي”
وتربط تقارير أخرى هذا التغيير بقلق متزايد داخل قطاع التكنولوجيا من ظاهرة “هلوسات الذكاء الاصطناعي”، أي إنتاج معلومات غير دقيقة أو مضللة من النماذج التوليدية، وما قد يترتب عليها من دعاوى قضائية محتملة.
وبحسب محللين، فإن هذه الخطوة تعكس اتجاها عاما لدى شركات التقنية الكبرى نحو نقل عبء التحقق من صحة المحتوى إلى المستخدم النهائي، في محاولة لتقليل المخاطر القانونية والتنظيمية في مرحلة يتوسع فيها استخدام الذكاء الاصطناعي في مجالات حساسة.







