تقنية

ميتا تحدد ضوابط صارمة لإطلاق الذكاء الاصطناعي العام

تعهد مارك زوكربيرغ، الرئيس التنفيذي لشركة ميتا، بجعل الذكاء الاصطناعي العام (AGI) متاحًا للجميع في المستقبل، إلا أن وثيقة جديدة للشركة كشفت عن قيود مشددة قد تحول دون إصدار أنظمة ذكاء اصطناعي متقدمة في حالات معينة تُشكل خطرًا محتملاً.

مخاوف ميتا بشأن الذكاء الاصطناعي العام

يُشاع أن الذكاء الاصطناعي العام (AGI) يتمتع بقدرة التعلم الذاتي، ما يجعله قادرًا على أداء جميع المهام البشرية، بخلاف الذكاء الاصطناعي التقليدي الذي يقتصر على المهام التي دُرِّب عليها فقط. ولهذا، أعربت ميتا عن مخاوفها من أن تقع هذه التقنية المتقدمة في الأيدي الخطأ، مما قد يؤدي إلى فقدان السيطرة عليها.

تصنيف ميتا للأنظمة عالية الخطورة

في وثيقتها الجديدة “إطار عمل الذكاء الاصطناعي المتقدم” (Frontier AI Framework)، حددت ميتا فئتين رئيسيتين من الأنظمة الخطرة:

  • الأنظمة “عالية الخطورة”: قد تُستخدم في تنفيذ هجمات إلكترونية أو كيميائية أو بيولوجية، لكنها تظل قابلة للسيطرة نسبيًا.
  • الأنظمة “فائقة الخطورة”: قد تؤدي إلى عواقب كارثية خارجة عن السيطرة، مثل اختراق أنظمة التشفير أو انتشار أسلحة بيولوجية عالية التأثير.

وأكدت ميتا أن قائمتها للمخاطر المحتملة ليست شاملة، لكنها تشمل التهديدات الأكثر احتمالًا في حال إطلاق ذكاء اصطناعي قوي.

إجراءات ميتا لضمان الأمان

تخضع تصنيفات ميتا لمخاطر الذكاء الاصطناعي إلى تحليلات متعددة، تستند إلى مدخلات الباحثين داخل الشركة وخارجها، وتخضع لمراجعة صناع القرار رفيعي المستوى.

  • في حال تصنيف نظام ما على أنه “عالي الخطورة”، فستُقيّد الشركة الوصول إليه داخليًا ولن تطلقه حتى يتم تقليل المخاطر إلى مستويات مقبولة.
  • أما إذا تم تصنيفه “فائق الخطورة”، فستتخذ ميتا إجراءات أمنية صارمة، تشمل إيقاف تطويره ومنع أي تسريب محتمل للنظام.

ميتا بين الانفتاح والحذر

ردًا على الانتقادات الموجهة لنموذجها “المفتوح” في تطوير الذكاء الاصطناعي، أكدت ميتا أن إطار عمل الذكاء الاصطناعي المتقدم سيتطور لمواكبة التغيرات التقنية والمخاطر الناشئة. ورغم أنها تتبنى نهجًا أكثر انفتاحًا مقارنةً بشركات مثل أوبن إيه آي (OpenAI)، التي تحصر أنظمتها خلف واجهات برمجة التطبيقات (API)، إلا أن هذا النهج أثبت كونه سلاحًا ذا حدين.

فقد حققت نماذج “لاما” (Llama) الذكاء الاصطناعي الخاصة بميتا مئات الملايين من التنزيلات، لكنها استخدمت، وفقًا للتقارير، من قِبَل خصم للولايات المتحدة في تطوير روبوت دردشة دفاعي لتعزيز الأمن السيبراني.

مقارنة مع الشركات الأخرى

يأتي نشر إطار عمل الذكاء الاصطناعي المتقدم كخطوة من ميتا للتأكيد على التزامها بالمسؤولية، مقارنةً بشركات مثل “ديب سيك” الصينية، التي توفر نماذج مفتوحة المصدر لكن دون ضمانات أمان كافية، مما يجعلها عرضة لسوء الاستخدام.

واختتمت ميتا الوثيقة بقولها:
“نعتقد أنه من خلال الموازنة بين الفوائد والمخاطر المرتبطة بالذكاء الاصطناعي المتقدم، يمكن تقديم هذه التكنولوجيا للمجتمع بأقصى فائدة وأقل ضرر ممكن.”

زر الذهاب إلى الأعلى