تحذير من «أوبن إيه آي»: الجيل القادم من نماذج الذكاء الاصطناعي قد يشكل خطراً سيبرانياً مرتفعاً

حذّرت شركة «أوبن إيه آي» من التطورات المتسارعة في نماذج الذكاء الاصطناعي، مؤكدة أن نموذجها القادم قد يمثل تهديداً سيبرانياً عالي الخطورة، سواء من حيث اكتشاف وبناء الثغرات أو المساعدة في تنفيذ مخططات إلكترونية معقدة، وذلك وفق ما أورده تقرير لوكالة «رويترز».
وأوضحت الشركة، في تدوينة نشرتها على موقعها الرسمي، أنها تولي اهتماماً خاصاً بالاستثمار في تعزيز القدرات السيبرانية للنماذج، بهدف توظيفها في مهام الأمن السيبراني الدفاعي، وتمكين خبراء هذا المجال من تدقيق الأكواد البرمجية واكتشاف الثغرات ومعالجتها بكفاءة أعلى.
وأشار التقرير إلى أن «أوبن إيه آي» تعتمد على مزيج من القيود التقنية وضوابط الوصول للحد من إساءة استخدام النماذج، إلى جانب تحصين بنيتها التحتية الرقمية، وفرض آليات مراقبة دقيقة وضوابط صارمة على مخرجات النماذج.
كما تدرس الشركة إتاحة وصول موسّع إلى نماذج أكثر تطوراً للمستخدمين العاملين في مجال الأمن السيبراني، شريطة إخضاعهم لعمليات تدقيق دقيقة والتحقق من أهليتهم واستحقاقهم لهذا المستوى من الوصول.
وفي السياق ذاته، أعلنت «أوبن إيه آي» عن تأسيس مجموعة استشارية جديدة تحت مسمى «مجلس مخاطر الحدود»، تضم خبراء في الأمن السيبراني الدفاعي وعاملين في القطاع الأمني، على أن تعمل هذه المجموعة بتنسيق وثيق مع الفرق الداخلية للشركة لتقييم المخاطر المحتملة ووضع آليات للحد منها.
ويُذكر أن تقارير عديدة تشير إلى إمكانية استغلال أدوات الذكاء الاصطناعي، بما فيها «شات جي بي تي»، في تطوير ثغرات وبرمجيات خبيثة، رغم القيود المفروضة، نظراً لوجود أساليب وتقنيات يمكن من خلالها الالتفاف على تلك الضوابط.







