ASUS

Anthropic تتهم شركات صينية باستخلاص قدرات نموذج Claude بشكل غير مشروع

عبد الرحمن عمرو
عبد الرحمن عمرو

3 د

اتهمت Anthropic شركات صينية بالاستخدام غير المشروع لقدرات نموذجها Claude.

يعد التقطير ممارسة شائعة لتدريب نماذج أصغر باستخدام إجابات نموذج متقدم.

السباق في الذكاء الاصطناعي متزايد والاختلاف بين الريادة والتأخر قد يعتمد على حجم التفاعلات.

تجاوز القيود الجغرافية يُثير التساؤلات حول القضايا الجيوسياسية والأمن القومي.

OpenAI تدعم Anthropic باتهامات مماثلة وتلمح لمخاطر على أسواق التكنولوجيا.

في سباق الذكاء الاصطناعي لا تُقاس السرعة بعدد المليارات التي تُضخ فقط، بل بمن يستطيع التعلم أسرع من الآخر. أحياناً لا يحتاج الأمر إلى اختراقات معقدة أو تسريبات سرية، بل إلى استغلال ذكي لمخرجات النماذج نفسها. هذا تحديداً ما فجّر اتهامات Anthropic الأخيرة لعدد من شركات الذكاء الاصطناعي الصينية، متهمةً إياها باستخدام ما تصفه بـ”الاستخلاص غير المشروع” لقدرات نموذجها Claude.


ما هو هجوم التقطير فعلياً؟

تقنياً، يُعد التقطير أو Distillation ممارسة شائعة في تطوير نماذج اللغة الكبيرة. الفكرة بسيطة: نموذج متقدم يعمل كـ”معلّم” يجيب على مدخلات مصممة بعناية، ثم تُستخدم هذه الإجابات لتدريب نموذج أصغر أو أحدث، ما يسمح له باكتساب قدرات مشابهة بسرعة وكلفة أقل.

Anthropic تعترف بأن المختبرات الرائدة تقوم بهذا داخلياً لتطوير نسخ أخف وأرخص لعملائها. لكن الفرق، من وجهة نظرها، أن ما حدث لم يكن تعلماً داخلياً بل استغلالاً خارجياً لمخرجات Claude في خرق لشروط الخدمة وقيود الاستخدام الجغرافي. هنا يتحول التقطير من أداة تحسين إلى ما تصفه الشركة بـ”هجوم”.


الأرقام تكشف حجم المنافسة

بحسب ما ورد في مدونة Anthropic، فإن شركة MiniMax التي تتخذ من شنغهاي مقراً لها أُجري عبرها أكثر من 13 مليون تفاعل يُزعم أنها استخدمت لاستخلاص قدرات النموذج. في المقابل، نُسب إلى Moonshot نحو 3.4 مليون تفاعل، بينما قُدرت استفسارات DeepSeek بحوالي 150 ألفاً فقط.

هذه الأرقام لا تعكس مجرد مخالفات تعاقدية محتملة، بل تكشف شدة السباق بين مختبرات الذكاء الاصطناعي العالمية. فحين تصبح ملايين المحادثات مادة تدريبية، فإن الفارق بين الريادة والتأخر قد يُقاس بعدد الاستجابات التي يمكن إعادة تدويرها.


التنافس يتحول إلى خطاب سياسي

اللافت أن Anthropic لم تكتفِ بالجانب التقني، بل أضفت بُعداً جيوسياسياً على القضية، مشيرة إلى أن تجاوز القيود الإقليمية يسمح لمختبرات خاضعة لسيطرة الحزب الشيوعي الصيني – بحسب تعبيرها – بتقليص الفجوة التي تحاول ضوابط التصدير الأمريكية الحفاظ عليها.

هذا الخطاب يعكس تحوّل الذكاء الاصطناعي من منتج تقني إلى أصل استراتيجي يدخل ضمن حسابات الأمن القومي وسلاسل الإمداد. ومن المفارقات أن Anthropic نفسها تواجه تدقيقاً أمريكياً يتعلق بمخاطر “سلسلة التوريد” في سياق محتمل لعقود البنتاغون.


OpenAI تدخل على الخط

المشهد لا يقتصر على Anthropic. فـ OpenAI، وفق ما نقلته رويترز، أرسلت مذكرة إلى مجلس النواب الأمريكي تتهم فيها DeepSeek بمحاولات مستمرة “للانتفاع المجاني” من قدرات النماذج الأمريكية الرائدة. حين تتفق شركتان متنافستان على الخصم نفسه، فهذا مؤشر على أن القضية أوسع من خلاف تجاري.

وفي الخلفية، تستعد DeepSeek لإطلاق نموذجها الجديد V4، وسط تحذيرات من تقلبات قد تضرب أسهم التكنولوجيا في وول ستريت، وفق تقارير CNBC. السوق المالي بات يتفاعل مع كل إصدار نموذجي كما لو كان إعلان أرباح لشركة عملاقة.


هل يمكن فعلاً حماية المخرجات؟

التحدي الأعمق هنا ليس قانونياً فقط، بل تقني أيضاً: كيف يمكن منع استخدام مخرجات نموذج لغة كبير كبيانات تدريب لنموذج آخر؟ النصوص بطبيعتها قابلة للنسخ وإعادة المعالجة، وما دام الوصول قانونياً إلى الواجهة البرمجية متاحاً، يبقى ضبط “نية الاستخدام” مسألة شديدة التعقيد.

ذو صلة

قد نشهد خلال السنوات المقبلة أدوات تتبع أدق، أو تقنيات وسم رقمية، أو حتى قيوداً على حجم التفاعلات المسموح بها. لكن الحقيقة أن نماذج الذكاء الاصطناعي تتعلم من النص، والنص بطبيعته مادة سائبة يصعب احتكارها بالكامل.

في النهاية، ما يجري ليس مجرد نزاع بين شركات، بل اختبار لفكرة الملكية في عصر النماذج التوليدية. السؤال لم يعد من يملك الخوارزمية فقط، بل من يملك أثرها حين يتحول إلى كلمات قابلة لإعادة الاستخدام بلا حدود واضحة.

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة