لطالما سيطرت الشركات الأمريكية مثل OpenAI وGoogle وMeta على مجال الذكاء الاصطناعي، لكن ظهور شركة DeepSeek الصينية أحدث اضطرابًا كبيرًا في المشهد العالمي. يعتبر نموذج DeepSeek-R1 واحدًا من أبرز التطورات الأخيرة في الذكاء الاصطناعي بفضل أدائه القوي، وكونه مفتوح المصدر، وتكاليف تطويره المنخفضة. إليك أهم ما يميز هذا النموذج وكيف يختلف عن المنافسين.
1. نموذج مفتوح المصدر مقابل الذكاء الاصطناعي المملوك
على عكس الشركات الأمريكية، اختارت DeepSeek نهج المصدر المفتوح، حيث أطلقت DeepSeek-R1 بترخيص MIT، مما يسمح للمطورين والشركات بالوصول إليه وتعديله بحرية.
بينما بدأت OpenAI كمشروع مفتوح المصدر، فإنها اتجهت إلى جعل نماذجها الحديثة مثل GPT-4 مغلقة المصدر. هذا الاختلاف يمنح DeepSeek ميزة في الشفافية، وتعزيز التعاون، وتخفيض تكلفة الاعتماد على الذكاء الاصطناعي، مما يجذب المؤسسات والمطورين المستقلين الذين لا يرغبون في الارتباط بمنصات مغلقة.
2. بنية النموذج والمعمارية
يستخدم DeepSeek-R1 تقنية Mixture-of-Experts (MoE)، والتي تعزز الكفاءة الحسابية بشكل كبير. يحتوي النموذج على 671 مليار معامل، ولكن بفضل تقنية MoE، يتم تفعيل 37 مليار معامل فقط في كل مرة، مما يقلل استهلاك الطاقة والتكلفة التشغيلية مقارنةً بالنماذج التقليدية.
بالمقارنة، يُقدر أن GPT-4 يحتوي على 1.8 تريليون معامل، مما يجعله أكثر تكلفة في التشغيل.
3. الكفاءة في التكلفة والاستهلاك
استطاعت DeepSeek تحقيق أداء مماثل لنماذج مثل GPT-4o وClaude 3.5 Sonnet وLlama 3.1 بتكلفة تطوير تقدر بـ 5.6 مليون دولار فقط، وهي أقل بكثير من ميزانيات منافسيها التي تصل إلى مئات الملايين.
يعود ذلك إلى استخدام وحدات معالجة الرسوميات H800، وهي نسخة مخففة من Nvidia H100 التي تخضع لقيود التصدير الأمريكية إلى الصين. رغم هذه التحديات، تمكنت DeepSeek من بناء نموذج تنافسي بمتطلبات حوسبية أقل.
4. القدرات في البرمجة والاستدلال الرياضي
يتميز DeepSeek-R1 بقوة في المهام التقنية مثل حل المشكلات الرياضية، البرمجة، والاستدلال المنطقي. في اختبارات الأداء، تجاوز GPT-4o في الحسابات الرياضية والتشفير، حيث حصل على Elo 2,029 على منصة Codeforces، متفوقًا على 96.3% من المشاركين البشريين.
5. اللغات والأسواق المستهدفة
يتمتع DeepSeek بقدرة فريدة على دعم كل من اللغة الإنجليزية والصينية بكفاءة عالية، متفوقًا على النماذج الأمريكية في اختبارات اللغة الصينية. لكنه يعاني أحيانًا من مزج اللغات في الردود، وهي نقطة لا تزال الشركة تعمل على تحسينها.
6. التسعير
يعد DeepSeek-R1 واحدًا من أكثر النماذج توفيرًا من حيث التكلفة، حيث يبلغ سعر API الخاص به 0.14 دولار لكل مليون توكن، مقارنة بـ GPT-4o الذي يكلف 7.50 دولار لكل مليون توكن، مما يجعله خيارًا جذابًا للشركات والمطورين ذوي الميزانيات المحدودة.
7. الأمن والرقابة على المحتوى
باعتبارها شركة صينية، تلتزم DeepSeek بالرقابة الصارمة للإنترنت في الصين، حيث لا تستجيب لأسئلة حول القضايا السياسية الحساسة مثل مجزرة تيانانمين. وعلى الرغم من أن OpenAI تفرض أيضًا سياسات رقابة، إلا أنها تستند إلى اعتبارات الأمان والأخلاقيات بدلًا من الإملاءات الحكومية.
مؤخرًا، تعرضت DeepSeek لمشاكل قانونية بعد إزالة تطبيقها من المتاجر الإيطالية بسبب تحقيقات تتعلق بالخصوصية، مما يثير تساؤلات حول التزامها بلوائح الاتحاد الأوروبي.
8. تأثير DeepSeek على السوق
أدى إطلاق DeepSeek-R1 إلى انخفاض كبير في أسهم شركات الذكاء الاصطناعي، حيث فقدت Nvidia 600 مليار دولار من قيمتها السوقية بسبب المخاوف من تراجع الطلب على رقائق الذكاء الاصطناعي عالية التكلفة.
كما دفعت DeepSeek شركات صينية كبرى مثل Alibaba وByteDance إلى تسريع تطوير نماذجها الخاصة، مما حفّز سباق الذكاء الاصطناعي في الصين.
9. المستقبل والتحديات
تسعى DeepSeek إلى تحقيق ذكاء اصطناعي عام (AGI)، ولكن نجاحها يعتمد على مدى تبنيها دوليًا، وتأثير القوانين الأمريكية على تصدير التكنولوجيا، والابتكارات القادمة في مجال الذكاء الاصطناعي.
مع تصاعد المنافسة، يبدو أن المستقبل سيشهد مزيدًا من النماذج الفعالة من حيث التكلفة بدلًا من تلك التي تعتمد على حجم هائل من المعاملات الحسابية.