أنثروبيك.. شركة الذكاء الاصطناعي التي اصطدمت بالبنتاغون دفاعا عن “سلامة النماذج”

برزت Anthropic كإحدى أبرز شركات أبحاث وتطوير الذكاء الاصطناعي في الولايات المتحدة، بفضل تطويرها لعائلة نماذج “كلود” (Claude)، واعتمادها فلسفة “الذكاء الاصطناعي الدستوري” التي تهدف إلى ضبط سلوك النماذج وضمان توافقها مع القيم الإنسانية.
ولم يقتصر حضور الشركة على الجانب التقني، بل امتد إلى دوائر السياسات العامة، خاصة بعد تصاعد خلافها مع United States Department of Defense بشأن استخدام تقنياتها في التطبيقات العسكرية، ما دفع الملف إلى مستويات نقاش رفيعة داخل البيت الأبيض.
النشأة والتأسيس
تأسست أنثروبيك عام 2021 على يد مجموعة من الباحثين السابقين في OpenAI، في ظل تحولات وانقسامات شهدها قطاع الذكاء الاصطناعي خلال السنوات الأخيرة.
وقاد تأسيس الشركة كل من Dario Amodei وشقيقته Daniela Amodei، إلى جانب Jared Kaplan وChris Olah، سعيا إلى بناء نموذج عمل يوازن بين التطور التقني والضوابط الأخلاقية.
فلسفة “سلامة الذكاء الاصطناعي”
تعتمد الشركة في رؤيتها على مفهوم “سلامة الذكاء الاصطناعي” (AI Safety)، انطلاقا من فكرة أن أنظمة الذكاء الاصطناعي المتقدمة يجب أن تظل متوافقة مع المصالح البشرية وألا تنحرف نحو استخدامات ضارة.
ولهذا تبنت أنثروبيك هيكلا قانونيا من نوع “شركة المنفعة العامة” (PBC)، كما طورت مفهوم “الذكاء الاصطناعي الدستوري” (Constitutional AI)، الذي يقوم على تدريب النماذج وفق مجموعة مبادئ وقيم أخلاقية محددة مسبقا.
وتصف الشركة فلسفتها بمفهوم “إمساك النور والظل”، أي الموازنة بين إدراك المخاطر المحتملة للذكاء الاصطناعي والاستفادة من إمكاناته الإيجابية في الوقت نفسه.
“كلود” ومنتجات الشركة
تعد عائلة نماذج “كلود” المنتج الأبرز لأنثروبيك، وتشمل عدة نسخ موجهة لاستخدامات مختلفة، مثل “أوبوس” و”سونيت” و”هايكو”.
كما وسعت الشركة حضورها في بيئات الأعمال عبر منصة “كلود كو-وورك”، التي تتيح أتمتة سير العمل داخل المؤسسات من خلال قراءة الملفات وتعديلها وإنشائها وتنفيذ مهام متسلسلة في مجالات متعددة.
وفي قطاع البرمجة، أطلقت أداة “كلود كود” التي توفر دعما للمطورين في كتابة الشيفرات وتحليل البيانات والتكامل مع الأنظمة الداخلية للشركات.
أما على المستوى الحكومي، فقد طورت الشركة نموذج “كلود غوف” المخصص للجهات الرسمية، مع طبقات إضافية من الحماية والامتثال التنظيمي.
كما طرحت “بروتوكول سياق النموذج” (MCP)، وهو معيار مفتوح يهدف إلى ربط المساعدات الذكية بالأدوات وقواعد البيانات داخل المؤسسات.
وفي مجال الأمن السيبراني، طورت أنثروبيك نموذج “ميثوس” ضمن مشروع “غلاس سوينغ”، بالتعاون مع شركات كبرى مثل Google وMicrosoft وAmazon، بهدف تقييم وتأمين البرمجيات الحيوية واكتشاف الثغرات الأمنية.
خلافها مع البنتاغون
برز التوتر بين أنثروبيك ووزارة الحرب الأمريكية نتيجة الاختلاف الجوهري بين فلسفة الشركة القائمة على “السلامة” ورغبة المؤسسة العسكرية في توظيف الذكاء الاصطناعي ضمن تطبيقات أمنية وعسكرية متقدمة.
وبدأت الأزمة بعد توقيع عقد أولي عام 2025 بين الشركة والبنتاغون بقيمة تقارب 200 مليون دولار لتطوير أنظمة سرية تعتمد على تقنيات “كلود”.
لكن المفاوضات اللاحقة كشفت عن خلافات حادة، بعدما وضعت أنثروبيك ما وصفته بـ”الخطوط الحمراء”، ورفضت منح وزارة الدفاع حق الاستخدام العسكري غير المقيد لتقنياتها.
وتمحور الرفض خصوصا حول منع استخدام نماذجها في تطوير أسلحة فتاكة ذاتية التشغيل بالكامل من دون إشراف بشري، إضافة إلى رفض استخدامها في أنظمة المراقبة الجماعية داخل الولايات المتحدة.
ويعكس هذا الخلاف اتساع الجدل العالمي حول حدود استخدام الذكاء الاصطناعي، ودور الشركات التقنية في رسم الضوابط الأخلاقية للتقنيات المتقدمة، في وقت تتزايد فيه المنافسة بين الحكومات وشركات التكنولوجيا للسيطرة على مستقبل الذكاء الاصطناعي.







