تقنية

ما هجوم حقن أوامر الذكاء الاصطناعي وكيف يعمل؟

مع تقدم التكنولوجيا، ابتكر الهاكرز (المخترقون) في جميع أنحاء العالم طرقًا جديدة للاستفادة من الثغرات الأمنية، مما يشكل تهديدًا للأدوات عبر الإنترنت. نحن نعيش في عصر الذكاء الاصطناعي حيث ظهرت أدوات متعددة مثل شات جي بي تي والنماذج اللغوية المماثلة، بهدف مساعدة المستخدمين والإجابة عن استفساراتهم. ومع ذلك، هل تعلم أن هذه النماذج يمكن أن تكون عرضة لهجمات إلكترونية تسمى “حقن أوامر الذكاء الاصطناعي”؟

ما هو هجوم حقن أوامر الذكاء الاصطناعي؟

يصنف موقع أواسب (OWASP)، وهو مؤسسة غير ربحية تعمل على تحسين أمان البرامج، هجمات حقن أوامر الذكاء الاصطناعي كإحدى أخطر الثغرات الأمنية في عالم نماذج اللغة. يمكن للمخترقين استخدام هذه الهجمات للوصول غير المصرح به إلى المعلومات المحمية، مما يجعل فهمها أمراً ضرورياً.

تحليل هجوم حقن أوامر الذكاء الاصطناعي

الهجوم المعروف باسم “AI prompt injection attacks” يعتمد على تقديم تعليمات نصية مخصصة لنموذج لغة الذكاء الاصطناعي، مما يؤدي إلى توليد مخرجات معينة. هذه الأوامر تساعد المستخدمين على إملاء تعليمات محددة للنموذج.

كيف تتم هجمات حقن أوامر الذكاء الاصطناعي؟

الهجمات تستهدف النماذج التي تعتمد على تعليمات نصية ومدخلات. يتألف الهجوم من أوامر تهدف إلى تجاوز تعليمات الموجِّه المبرمجة لنموذج اللغة. على سبيل المثال، يمكن للمهاجم استخدام هذه الهجمات لجعل النموذج يشرح كيفية القيام بأفعال غير قانونية.

مثال توضيحي

إذا كنت تمتلك أداة ذكاء اصطناعي مثل شات جي بي تي، وحاول شخص ما تنفيذ هجوم حقن أوامر، فقد يتمكن من إنشاء مخرجات تحض على الكراهية أو تقدم إرشادات لأفعال غير قانونية. هذا سيشكل إحراجًا كبيرًا لمالك الأداة ويؤثر سلبًا على سمعته.

أنواع هجمات حقن أوامر الذكاء الاصطناعي

  1. هجمات DAN (Do Anything Now): تستهدف كسر حماية النماذج التوليدية مثل شات جي بي تي، مما يتيح للذكاء الاصطناعي تنفيذ أوامر تتجاوز الحدود المبرمجة.
  2. هجمات حقن الأوامر المباشر: تحدث عندما يقدم مستخدم خبيث تعليمات تهدف للحصول على معلومات حساسة مثل مفاتيح واجهة برمجة التطبيقات.
  3. هجمات حقن الأوامر غير المباشر: تتضمن إضافة تعليمات ضارة في صفحات الويب التي يتم تلخيصها بواسطة الذكاء الاصطناعي، مما يؤدي إلى تنفيذ الأوامر الضارة دون علم المستخدم.

تهديدات هجمات حقن أوامر الذكاء الاصطناعي

قد تشكل هذه الهجمات تهديدًا حقيقيًا. رغم أن المحاولات المعروفة نفذها باحثون ولم تسفر عن أضرار فعلية، إلا أن العديد من الباحثين يرون أن هذه الهجمات تمثل تحديًا كبيرًا لتطبيق الذكاء الاصطناعي بأمان. وقد لاحظت السلطات هذا التهديد، حيث قامت هيئة التجارة الفدرالية بالتحقيق في أوبن إيه آي في يوليو/تموز 2023 بحثًا عن معلومات حول هذه الهجمات.

في الوقت الحالي، لم تُسجل هجمات ناجحة خارج نطاق التجارب، لكن من المرجح أن يتغير ذلك في المستقبل. لذا، يجب أن نستمر في متابعة التطورات واتخاذ التدابير اللازمة لحماية أدوات الذكاء الاصطناعي من هذه التهديدات.

زر الذهاب إلى الأعلى