أطلقت شركة ديب سيك DeepSeek الصينية المتخصصة في الذكاء الاصطناعي، الإصدار DeepSeek V3.1 من نموذجها اللغوي الضخم الرائد، مع زيادة عدد المعاملات إلى 685 مليار، وتوسيع نافذة السياق إلى 128000 رمز، ما يعادل قراءة كتاب من 300 إلى 400 صفحة دفعة واحدة.
ما الجديد في DeepSeek V3.1؟
التحديث الأبرز لـ ديب سيك هو زيادة طول السياق، مما يمنح النموذج قدرة أكبر على التعامل مع النصوص الطويلة، سواء في إنتاج المحتوى المطول، أو تحليل الوثائق التقنية، أو إجراء محادثات متعددة الخطوات.
وأكدت الشركة أن هذه القدرة كانت مدعومة داخليا في الإصدار السابق V3، لكنها أصبحت الآن مفعلة رسميا على جميع الواجهات.
بنية النموذج ومعايير الأداء
لا يزال DeepSeek V3.1 يستخدم بنية Mixture-of-Experts، حيث يتم تفعيل 37 مليار معامل فقط لكل رمز، ما يوفر كفاءة عالية في الأداء، كما يدعم النموذج تنسيقات دقة متعددة مثل BF16 وFP8 وF32، مما يجعله مرنا للتنفيذ في بيئات مختلفة.
يمكن للمطورين الوصول إلى النموذج عبر واجهة API أو تحميله عبر منصة Hugging Face بموجب رخصة MIT مفتوحة المصدر.
وفي اختبارات الأداء، أحرز النموذج 71.6٪ في اختبار البرمجة Aider، متفوقا على نموذج Claude Opus 4، ليعد واحدا من أقوى نماذج الترميز مفتوحة المصدر حاليا.
كما أظهر تحسنا في مهام الرياضيات والمنطق، رغم أن بعض المستخدمين أشاروا إلى عدم وجود تقدم ملحوظ في قدرات الاستدلال مقارنة بالنموذج السابق R1-0528.
تحول استراتيجي
أزالت ديب سيك كل الإشارات إلى نموذج R1 من واجهة محادثتها، في إشارة إلى الانتقال نحو نموذج هجين موحد يجمع بين قدرات الاستدلال وغير الاستدلال، ويبدو أن الإصدار V3.1 يدمج هذه القدرات ضمن بنية واحدة بدلا من فصلها كما كان في السابق.
لم تفصح الشركة عن تكلفة تدريب V3.1، لكن تقارير سابقة أشارت إلى أن نموذج V3 الأصلي تطلب 2.788 مليون ساعة GPU باستخدام شرائح Nvidia H800، بتكلفة تقريبية بلغت 5.6 مليون دولار، ويرجح أن V3.1 استند إلى نفس البنية التحتية مع تحسينات إضافية.
الغموض حول تأخر إطلاق R2
كان من المتوقع أن يكون الإصدار التالي هو النموذج المرتقب R2، الذي صمم لتعزيز قدرات الاستدلال، لكن بدلا من ذلك، جاء V3.1 كخطوة جديدة.
ووفقا لتقرير في صحيفة فاينانشال تايمز، تأخر إصدار R2 بسبب مشاكل تقنية مستمرة مرتبطة باستخدام شرائح Ascend AI من شركة هواوي.
وكانت ديب سيك قد تلقت تشجيعا حكوميا لاستخدام شرائح Ascend بهدف تقليل الاعتماد على إنفيديا، تماشيا مع الاستراتيجية الوطنية الصينية لتحقيق الاكتفاء الذاتي في الذكاء الاصطناعي.
لكن على الرغم من الدعم التقني من مهندسي هواوي، فشل التدريب على الشرائح المحلية بسبب مشاكل التوافق والأداء، مما أجبر الشركة على العودة لاستخدام إنفيديا للتدريب، مع الاحتفاظ بـ Ascend في مرحلة التنفيذ، وهو ما تسبب في مزيد من التعقيد والتأخير.
كما أدى الوقت الطويل الذي استغرقته عمليات تصنيف البيانات يدويا إلى إبطاء وتيرة التطوير، وبحسب تقارير، عبر مؤسس الشركة ليانج وينفنج عن إحباطه من بطء التقدم.
في المقابل، واصلت شركات منافسة مثل Qwen3 من علي بابا التقدم من خلال نشر خوارزميات مماثلة بكفاءة أعلى، وهو ما أظهر محدودية البنية التحتية للرقاقات الصينية والتحديات التي تواجهها الشركات الناشئة بين المطالب السياسية والتقنية.
لم تستبعد ديب سيك إطلاق نموذج R2 في المستقبل، لكن في حال صدوره، سيخضع لأعلى درجات التقييم والمقارنة. وحتى ذلك الحين، يظل V3.1 هو النموذج الرئيسي الحالي للشركة، حيث يقدم إطارا موحدا للمهام التحليلية والمنطقية على حد سواء.